OpenAIは2026年4月20日、防御的サイバーセキュリティ用途に特化した新モデル「GPT-5.4-Cyber」を公開しました。バイナリのリバースエンジニアリングや3,000件を超える脆弱性の修正支援が可能とされており、Bank of America・Goldman Sachs・CrowdStrike・JPMorgan Chaseなど主要金融機関とセキュリティ企業が参加する「Trusted Access for Cyber(TAC)」プログラムを数千人規模に拡大したと発表しています。The Hacker Newsが報じています。
GPT-5.4-CyberはGPT-5.4の汎用版とは異なり、セキュリティ業務への応用に特化したファインチューニングが施されています。バイナリ解析(逆コンパイル)、既知のCVE(共通脆弱性識別子)への対応手順の提案、コードの脆弱性スキャンといった防御的ユースケースを主な対象としており、TACプログラムに登録した認証済みのセキュリティ専門家のみがアクセスできる仕組みを採用しています。
OpenAI公式の発表に対し、セキュリティ研究者コミュニティからは「待ち望んでいた機能がようやく実現した」という歓迎ムードが広がりました。一方、Redditのr/netsecでは「一般に公開されない専用モデルがセキュリティの非対称性を生む」という懸念を示すスレッドが人気を集めています。防御者がアクセスを制限されたモデルを持つ一方で、攻撃者は独自に同等能力のモデルをすでに保有しているかもしれない、という指摘です。
Hacker Newsでは「攻撃者も同様のモデルをすでに持っているはずなのに、防御者だけがアクセスを制限されていた状況こそが問題だった」という上位コメントが多くの共感を集め、TACプログラムによるアクセス拡大を歓迎する論調が優勢でした。
アクセス制限の仕組みは、悪意ある利用を防ぐための現実的な妥協策として理解できますが、セキュリティ研究の幅広いコミュニティから見ると「誰が審査するのか」という透明性の問題も残ります。セキュリティ分野でのAI活用が加速するなか、防御側のツール整備と悪用リスクのバランスをどう取るかは、業界全体で継続的に議論されるテーマになっていきそうです。