OpenAIが、AIシステムを狙ったプロンプトインジェクション攻撃について「ウェブ上の詐欺やソーシャルエンジニアリングと同様、完全に解決される可能性は低い」との公式見解を示しました。VentureBeatの調査では、専用の防御策を導入している企業はわずか34.7%にとどまることも明らかになり、AIセキュリティの現状に警鐘が鳴らされています。
OpenAIは2025年12月のブログ投稿で、AIブラウザ「ChatGPT Atlas」のプロンプトインジェクション対策について説明する中で、この見解を明らかにしました。同社によると、エージェントモードは「セキュリティの脅威面を拡大する」ものであり、どれほど洗練された防御策を講じても「決定論的な保証を提供することはできない」と認めています。OpenAIはプロンプトインジェクションを長期的なAIセキュリティの課題として捉え、継続的に防御を強化していく方針を示しています。
VentureBeatが100人の技術意思決定者を対象に行った調査では、専用のプロンプトインジェクション防御策を導入している組織は34.7%にとどまり、残りの65.3%はこうしたツールを購入していないか、導入の有無を確認できない状態でした。Hacker Newsでは「モデルが命令とデータを確実に区別できない以上、根本的な問題は残る」との技術的分析が行われています。また、Redditのr/cybersecurityでは「エージェントAIの自律性が高まるほど攻撃面も拡大する」との懸念が共有されています。
OpenAIはこの課題に対処するため、強化学習でエンドツーエンドに訓練された「LLMベースの自動攻撃者」を開発し、プロンプトインジェクション脆弱性の発見に活用しています。しかし、AIが人間を狙った詐欺のように進化し続ける脅威であることを考えると、企業は単一のツールに頼るのではなく、多層防御のアプローチを検討する必要がありそうです。AIの普及が加速する中、セキュリティ対策の遅れは深刻なリスクとなる可能性があります。