Anthropicは2026年2月、中国のAI企業DeepSeek、Moonshot AI、MiniMaxによる大規模な「蒸留攻撃」を検出したと発表しました。約2万4000件の不正アカウントを通じて1600万回以上のクエリがClaudeに送信され、AIモデルの能力を不正に抽出する試みが行われていました。
蒸留(Distillation)とは、AI企業が自社モデルの小型・軽量版を作成する際に使用する一般的な学習手法ですが、競合他社のモデルに対して行うと、事実上「宿題を丸写し」することになります。中国の3社は、Claudeの最も差別化された能力であるエージェンティック推論、ツール使用、コーディングを標的にしていました。Anthropicによると、DeepSeekからは15万回以上の基礎的なロジックとアライメント改善を目的としたクエリが、Moonshot AIからは340万回以上のエージェンティック推論とコンピュータビジョン関連のクエリが検出されています。
攻撃には商用プロキシサービスが利用され、単一のプロキシネットワークが2万件以上の不正アカウントを同時管理し、蒸留トラフィックを無関係な顧客リクエストと混合して検出を困難にしていました。中国はAnthropicのサービス提供地域外であり、法的・規制的・セキュリティ上のリスクから使用が禁止されています。
X上では「AIモデルの知的財産保護の難しさが浮き彫りになった」との声が上がっています。Hacker Newsでは「モデル蒸留は技術的には防ぎにくく、利用規約での対応には限界がある」との指摘も見られます。Anthropicは「不正に蒸留されたモデルは必要なセーフガードを欠き、重大な国家安全保障リスクを生む」と警告しており、AI企業間の知的財産保護と米中のAI競争における新たな課題が浮き彫りになっています。