ライバル関係にあるOpenAI、Anthropic、Googleの3社が、中国AI企業による「敵対的蒸留(adversarial distillation)」攻撃への対抗策として情報共有を開始しました。Bloombergが2026年4月6日に報じたところによると、DeepSeek、MiniMax、Moonshot AIが偽アカウント約2万4,000件を使い、AnthropicのClaudeのAPIを合計1,600万回呼び出してモデルをコピーしていた疑いがあるとされています。
敵対的蒸留とは、大量のAPIリクエストを通じて既存モデルの出力を収集し、それを学習データとして自社モデルをファインチューニングする手法です。通常の利用を装いながら組織的に行われるため、検出が難しいとされています。今回問題とされた3社は、いずれも中国に本拠を置く有力なAI企業で、昨年からグローバル市場での存在感を高めていました。
3社は業界団体Frontier Model Forumを通じて協調対応を取ることで合意しました。具体的には、異常なAPIアクセスパターンの共有や、偽アカウント検出のための技術的指標の標準化などが議題に挙がっているとされています。通常、熾烈な競争関係にある三者が情報共有に踏み切った背景には、知的財産保護への危機感があります。
X(旧Twitter)ではAnthropicの主張に対して批判的な意見も多く上がりました。「自分たちもインターネットから無断でデータを収集して学習させたのに」という皮肉の声が広く拡散し、Redditでは「泥棒から盗んだ(stealing from thieves)」というコメントが注目を集めました。AIの学習データをめぐる倫理的な問題が、今度は「蒸留」という新たな文脈で再燃した形です。
今後、Frontier Model Forumが実効性のある防衛策を打ち出せるかが注目されます。一方でAPIアクセス制限の強化はオープンなAI研究環境にも影響を与えかねず、研究コミュニティへの影響も議論になりそうです。