米国防総省(DOD)が、AIモデルの大量監視・自律兵器への使用を拒否したAnthropicを「サプライチェーンリスク」に指定しました。これを受けてAnthropicは2026年3月9日に連邦訴訟を提起し、3月26日にカリフォルニア州連邦裁判所のLin判事が指定の執行を一時差し止める仮処分命令を下しました。OpenAIとGoogleの従業員30名超がAnthropicを支持する声明を発表しており、AI倫理と軍事利用をめぐる前例のない法廷闘争となっています。
CNNや公開された裁判文書によると、ペンタゴンはAnthropicとの契約交渉において「すべての合法的な目的」に使用できることを求め、Anthropicが米国民の大量監視と自律兵器への使用を禁じる条項を外さなかったことで交渉が決裂しました。国防長官Pete Hegsethが同指定を実施し、連邦機関にAnthropicとの取引停止を命じました。これはAmerican企業に対する同制度の適用としては異例の初事例です。指定が維持されれば、Amazon、Microsoft、Palantirといった防衛請負業者もAnthropicのClaude AIを使用しないことを証明しなければならなくなる状況でした。Lin判事は判決文の中で「米国企業が政府に対して意見表明したことを理由に『潜在的な敵性勢力』と烙印を押されることを認める法的根拠はない。これは典型的な違法な修正第1条(言論の自由)侵害だ」と断じています。
X上では「AIの軍事利用を拒否した企業が制裁を受けるのは危険な前例。AI業界全体に警鐘を鳴らしている」という批判が多数流れています。Redditのr/artificialではAnthropicの倫理的立場を支持するコメントが上位を占め、Hacker Newsでは「政府とAI企業の関係の複雑さが露呈した。OpenAIとの比較で議論が白熱している」という指摘がなされています。
連邦司法省は9th Circuit(第9巡回控訴裁判所)への緊急申請を検討できる状況で、法廷闘争はまだ続く見通しです。この事件はAI企業が安全性の原則を守り続けられるのかという問いを社会に突きつけており、AI規制・軍事利用をめぐる議論の焦点となっています。