← 2026-03-01
Industry & Business Community 2026-03-01 Source →

トランプ政権がAnthropicを「国家安全保障リスク」に指定、自律型兵器へのAI使用拒否で政府契約を失う

トランプ大統領は2月27日、AI企業Anthropicの技術を政府機関が使用することを禁止する大統領令に署名しました。同社が自律型兵器と大規模監視へのAI利用を禁止する内部ポリシーを堅持したことが原因で、国防総省との約2億ドル規模の契約が打ち切られる見通しです。

この対立は、国防長官ピート・ヘグセス氏がAnthropicのCEOダリオ・アモデイ氏に対し、同社のAIモデル「Claude」を「すべての合法的な目的」に使用できるよう求めた最後通告から始まりました。Anthropicは自律型兵器への使用と米国市民に対する大規模監視という2つのレッドラインを譲らず、アモデイCEOは「良心に従って彼らの要求に応じることはできない」と声明を発表しています。これを受けてヘグセス国防長官はAnthropicを「サプライチェーンリスク」に指定するよう命令し、国防総省をはじめとする連邦機関には6カ月間の移行期間が設けられました。

X(旧Twitter)では、Anthropicの倫理的姿勢を支持する声と国防への影響を懸念する声で意見が二分しています。一部の上院議員が両者の和解を求める動きも報じられています。Hacker Newsでは「サプライチェーンリスク」という指定そのものへの批判が多く、AI安全性と軍事利用のバランスについて活発な議論が展開されています。

Anthropicは今回の指定について法廷で争う姿勢を示しており、「この指定は法的に根拠がなく、政府と交渉するすべてのアメリカ企業にとって危険な前例を作る」と警告しています。一方、OpenAIが国防総省との契約を獲得したとの報道もあり、AI業界における政府との関係性が今後の競争力を左右する重要な要素となりつつあります。

関連リンク