2026年2月に公開された「国際AI安全報告書2026」は、汎用AIシステムの能力とリスクに関する最新の科学的知見を包括的にまとめた報告書です。同報告書によると、洗練された攻撃者であれば最良の防御を施したモデルでも10回の試行で約50%の確率で突破できるとされ、AI セキュリティの現状に警鐘を鳴らしています。
報告書では、AIシステムがサイバー攻撃チェーンの複数の段階で攻撃者を支援できるようになっていると指摘しています。特にソフトウェアの脆弱性発見においては、AIが意味のある支援を提供できるという強力な証拠が示されています。一方で防御側でも、攻撃者より先に脆弱性を特定するAIセキュリティエージェントや、悪意あるユーザーを検出・ブロックするシステムの開発が進んでいます。現時点ではAIがサイバー攻撃を完全に自律的に実行する段階には至っていないものの、攻撃の準備段階をスケールアップする役割は増大しています。
Hacker Newsでは「エンタープライズAIエージェントのセキュリティが追いついていない」との警告が示されています。Redditでも「AIがアシスタントから自律的アクターへ移行する中で、セキュリティ対策の根本的見直しが必要だ」との議論が活発化しています。Ciscoの「State of AI Security 2026」レポートも同様の見解を示しており、2025年後半からAIの侵害やAIを利用した悪意あるキャンペーンの報告が急増していること、Model Context Protocol(MCP)を用いたエージェントAIのリスク表面が拡大していることを指摘しています。