
OpenAI が 4 月 14 日、GPT-5.4 のセキュリティ特化バリアント「GPT-5.4-Cyber」を発表した。これは防御的サイバーセキュリティに限定された、未公開のモデルだ。
問題はここで明確になる。見落としがちだけど、少なくとも OpenAI のモデルでは、これまでセキュリティ用途に対して強い安全制御がかかっていた。OpenAI 自身、悪用防止のためにサイバー関連タスクに制約や監視を設けていた。ところが GPT-5.4-Cyber では、その制限を段階的に緩和し、認証されたセキュリティ組織や研究者に限定提供するという方針に踏み込んだわけです。
特筆すべき能力は「バイナリリバースエンジニアリング」です。ソースコードなしで、マルウェアを含むコンパイル済みソフトウェアを解析できる——つまり、バイナリのみから機能や脆弱性、堅牢性を読み解けるということ。これは従来の逆コンパイラやパターンマッチング手法だけでは難しかった領域を、大きく前進させる可能性があります。🔬
展開の方法を見ると、OpenAI は「Trusted Access for Cyber」というプログラムの拡張版として、段階的にアクセス権を与えています。対象は、認定セキュリティベンダー、企業の防御チーム、研究者。最高ティアでは GPT-5.4-Cyber への直接アクセス権が与えられ、センシティブなセキュリティタスク(脆弱性発見、脅威インテリジェンス等)の制限が実質的に緩和される構想です。
規制の文脈で言うと、これは興味深い「責任あるスケーリング」の事例です。単に機能を制限するのではなく、ユースケース・アクセス権・監視体制をセットで構築することで、防御側の能力強化と悪用防止のバランスを取ろうとしている。Anthropic の Project Glasswing と同じアプローチですね 💡
ただし問題は、この透明度の低さです。誰がアクセス権を獲得したのか、実際にどう使われているのか、外部には見えにくい。段階的デプロイが言う「制御可能」というのは、規制当局の目から見えない制御かもしれない。
つまり、OpenAI とセキュリティ企業の連携強化は確実に進む一方で、その実態がどの程度透明に保たれるのか——この動向は追っておきたいところです。