ライバル関係にあるOpenAI、Anthropic、Googleの3社が、中国企業による最先端AIモデルからの「敵対的蒸留(adversarial distillation)」を阻止するため、2023年に設立した業界非営利団体「Frontier Model Forum」を通じて脅威情報の共有を開始しました。同フォーラムがこのような対外的な敵対者対策として実際に稼働したのは今回が初めてです。
Bloombergの報道によると、Anthropicは中国のAI企業DeepSeek、Moonshot AI、MiniMaxの3社が計約2万4000の不正アカウントを通じてClaudeと1600万回以上のやり取りを行っていたと主張しています。OpenAIも米下院中国共産党特別委員会への公式メモの中で、DeepSeekが同社モデルからデータを抽出する「ますます巧妙な手法」を開発していたと警告しています。蒸留(distillation)とは、大規模な「教師」モデルを使って小規模な「生徒」モデルを訓練し、元の性能を低コストで再現する技術です。自社モデルへの適用は正当な研究手法ですが、他社の利用規約に違反する形での実施は不正競争とみなされます。
X上では「競合他社が協力するのは異例」との驚きの声が多く、AI地政学の観点から米中技術覇権争いの新段階を象徴する動きとして注目を集めています。一方Redditでは、「モデル蒸留を技術的に完全に防ぐ手段が本当に存在するのか」との懐疑的な意見や、こうした対策がオープンソースコミュニティへの締め付けにつながるのではないかと懸念する声も上がっています。
今後、3社の連携がどこまで実効性を持つかは未知数ですが、AI覇権をめぐる米中対立がインフラや規制の水面下から、モデルそのものをめぐる直接的な技術競争へと移行しつつあることは明確です。AI企業間の「協調と競争」という構図は、今後の業界標準策定にも大きな影響を与えそうです。