セキュリティ研究者らの分析により、AIエージェント向けスキル・プラグインの26%以上に少なくとも1つの脆弱性が含まれていることが明らかになりました。公開モデルリポジトリを経由したマルウェア混入がAI関連侵害全体の35%を占めており、AIエージェントのセキュリティが深刻な課題となっています。
2026年1月に発生した「ClawHavoc」事件では、OpenClawフレームワークのパッケージレジストリ「ClawHub」で1,184個の悪意あるスキルが確認され、9,000以上のインストール環境が侵害されました。Antiy CERTによると、これはエコシステム内のパッケージの約5分の1に相当します。この問題はChatGPTプラグイン、Claude MCPサーバー、LangChainツールなど、あらゆるコミュニティ主導のAIプラグインマーケットプレイスに共通する根本的な脆弱性を示しています。
BlueRock Securityの調査では、7,000以上のMCPサーバーを分析した結果、36.7%がサーバーサイドリクエストフォージェリ(SSRF)の脆弱性を抱えていることが判明。また、SecurityScorecardは安全でないデフォルト設定のまま公開インターネットに露出した135,000のOpenClawインスタンスを発見しています。
Hacker Newsでは「AIの採用速度とセキュリティ準備のギャップが問題の本質」との指摘があり、Reddit上では「オープンモデルリポジトリが新たな攻撃面になっている。サプライチェーンセキュリティの再考が必要」という声が上がっています。従来の静的アプリケーションセキュリティテスト(SAST)ツールはLLMとツール間の通信フローや会話状態管理、エージェント固有の信頼境界の問題を検出できないとされ、企業の34%程度しかAI専用のセキュリティ対策を導入していないのが現状です。AIエージェントの普及が進む中、セキュリティ対策の強化が急務となっています。