Anthropicが米国防総省(DOD)を提訴しました。国防総省が同社を「サプライチェーンリスク」に指定し、AIサービスの政府調達を制限したことに対する法的対抗措置です。訴訟の背景には、Anthropicが自律兵器の標的選定や国民の大規模監視へのAI活用を明確に拒否したことがあり、OpenAIがAnthropicの断った条件でペンタゴンと契約を締結したという経緯も明らかになっています。
Anthropicによると、DODはAnthropicのAIシステムを安全保障上の「脆弱な接点」と位置づけ、政府機関内での利用を事実上排除したとされます。同社は「倫理的なAI利用方針を維持したことが商業的不利益に直結した」と主張しており、政府のAI調達プロセスにおける透明性の欠如も問題として提起しています。一方OpenAIは、安全基準を緩和した形で国防総省と複数年契約を結んだとされ、業界内の対照的な姿勢が鮮明になりました。
この件はテクノロジーコミュニティに大きな波紋を呼んでいます。X(旧Twitter)では「#QuitGPT」ムーブメントが250万人超の支持を集め、ChatGPTのアンインストールが前日比295%急増。AnthropicのClaudeが米App Storeで初めて1位を獲得するという異例の事態も起きました。さらに、GoogleとOpenAI合わせて約900名の従業員が公開書簡に署名し、自社リーダーシップに対して国内大量監視や自律致死的標的化へのAI利用を拒否するよう求めるという前例のない動きも生まれています。Hacker Newsでは「企業が倫理的判断を守ることで市場機会を失う構造的問題」として、AI軍事利用の規制枠組みを求める声が上がっています。
今回の訴訟は、AI企業が政府との関係でどこに倫理的なラインを引くかという問いを社会に突きつけています。軍事AIへの関与と企業倫理のせめぎ合いは、業界全体が避けて通れない議題となりつつあります。裁判所の判断次第では、政府AI調達における安全基準の定義に影響を及ぼす可能性もあり、今後の動向が注目されます。