2026年2月、米国のトランプ政権は、AI企業Anthropic(開発AI「Claude」)との連邦機関・防衛関連の契約継続を停止し、軍事請負業者や政府機関に対し取引を中止するよう命じました。
この背景には、「AIをどこまで軍事利用や監視に開放するか」を巡る政府とAI企業の深い溝があります。
本記事では、その対立がどこから来たのか、Anthropicの立場・OpenAIとの競争との関係も含めて、最新情報を初心者にもわかりやすく解説します。
目次
なぜAnthropicは米国連邦政府から排除されたのか?
2026年2月27日、米国のドナルド・トランプ大統領は、すべての連邦機関に対してAI企業「Anthropic(アンソロピック)」の技術使用を停止するよう命令しました。トランプ政権は同社を「供給チェーンリスク」とみなし、政府・軍事関連との契約を中止するよう指示しています。
Anthropicとはどんな企業か?
Anthropicは2021年に設立された米国のAI企業で、サンフランシスコを拠点に大規模言語モデル「Claude(クロード)」シリーズを開発しています。元OpenAI出身者が設立に関わり、安全性・倫理を重視したAI研究で知られています。
今回の一件の発端は「AIの軍事利用」と「安全制約」
米国防総省(Pentagon)は、Claudeを軍事用途で利用する際に「制約なしで使えるようにしたい」と要求しました。具体的には、AI技術を自律型兵器や大規模国内監視にも利用できるよう条件を緩めるよう求めたとされています。
これに対し、AnthropicのCEOダリオ・アモデイ氏は「自社AIは完全自律兵器や大量監視に用いるべきではない」として強く拒否。安全性と倫理を重視したAI設計方針を曲げず、制約付きの利用しか認めない姿勢を崩しませんでした。
何が政府とAnthropicの溝を深めたのか?
Anthropicが拒否した主な要求は次の2点です:
- 完全に制約なしの「all lawful uses」(合法とされるなら全部使う)という契約条項への合意。
- 自律兵器や国内監視など、安全制約を外すこと。
政府側は「合法的な使用であれば軍事利用も可能」という立場ですが、Anthropicはそれでも「安全ガードレール」を維持すべきと主張しました。
トランプ政権の対応:排除と命令
この対立が長引いた結果、トランプ大統領は「AnthropicのAI技術を即刻すべての連邦機関で使うな」と命令し、国防総省はAnthropicを「供給チェーンリスク」として扱う準備を進めています。これは通常、中国などの敵対国企業に適用される措置であり、米国企業に対しての適用は極めて異例です。
AnthropicとOpenAI:ライバル関係と政府対応の違い
この渦中、Anthropicの競合であるOpenAIは、同じく国防総省と契約を結び直し、防衛網向けAI提供を行うと発表しました。OpenAIは契約で安全原則を明記しつつも、政府が望む「all lawful uses」条項を容認したと報じられており、政府との対立が回避されています。
OpenAI CEOサム・アルトマン氏は、自社の契約は「国内監視や完全自律兵器には使わせない」という安全装置も入っていると主張。Anthropicと似た安全原則を示しつつ、政府の求める条件と折り合いをつけた格好です。
なぜAnthropicは政府の条件を受け入れなかったのか?
Anthropicは設立当初から、「AIが社会に悪用されるリスク」を技術上および倫理上重視してきた企業です。Claudeには、国内監視や戦闘システムなどへの無制限利用を防ぐガードレールが組み込まれています。この方針を後退させることは、同社の基本的価値観と反しており、CEO自らが「良心上受け入れられない」と表明しました。
Anthropic排除が意味するもの
今回の一件は、単なる企業と政府の対立ではありません。米国がAIを「どういう倫理観・安全基準で軍事や政府用途に使うべきか」を明確にしようとする試金石となっています。政府は国家安全保障を優先し、AIの制限を緩めようとする立場ですが、Anthropicは同じく民主主義や人権を守る立場からの制約維持を優先しました。
この問題が今後のAI業界にもたらす影響
今回の騒動は、米国だけでなく世界中のAI産業に大きな影響を与える可能性があります。AIを政府用途に供給する企業に対し、「安全ガードレールをどこまで維持すべきか」という問いが突きつけられているためです。また、Anthropicの裁判闘争が今後の企業と国家の契約関係や規制の基準を左右すると見る専門家もいます。
まとめ
Anthropicが米国連邦政府から排除された理由は、政府が求める「制約なしでAIを軍事用途を含めて使えるようにしたい」という条件に対して、Anthropicが「安全性を守るため制約を譲れない」と譲歩しなかったことにあります。この価値観の違いは、AI倫理や民主主義の根本的な価値観の違いと結びついており、AI政策の今後を大きく左右する可能性があります。
一方、競合であるOpenAIは政府との合意を形成し、両者の立場の違いが浮き彫りになっています。