※本ページはプロモーションが含まれています

IT小僧のブラック時事放談 今日のAI話

日本未報道:ペンタゴンAI契約の真実――AnthropicとOpenAIがトランプ政権と激突

「推計400万人超がChatGPTを離脱」「AnthropicがAI企業として初めてトランプ政権を提訴」

——2026年2〜3月、米国のテック・安全保障の世界では歴史的な激震が走った。

自律兵器、市民の大規模監視、そしてAI企業の倫理と国家権力のぶつかり合い。この戦いの行方は、私たちが使うAIの未来そのものを左右する。

日本ではほとんど報道されないこの一大事件を、米国の一次情報から完全解説する。

 

そもそもなぜAIが「戦争の鍵」なのか

現代の軍事においてAIは「ゲームチェンジャー」と呼ばれて久しい。だが2026年現在、その活用は想像をはるかに超えた次元に達している。

AIが軍事で使われる主な領域

現在ペンタゴン(米国防総省)がAIに期待する役割は大きく3つある。

情報収集・分析の高速化:大量の通信傍受情報やオープンソース情報をリアルタイムで処理し、脅威を即座に特定する。

ターゲット識別・攻撃計画:人間のオペレーターを介さずに攻撃目標を設定する「自律兵器システム」の開発が進む。

市民・敵対勢力の監視:商業データブローカーから購入した位置情報・閲覧履歴・個人金融データなどを組み合わせ、特定個人の行動パターンを追跡する。

⚠️ 今回の問題の核心:ペンタゴンが求めたのは「すべての合法的用途(all lawful purposes)」へのClaude利用権限。これは自律兵器への組み込みや米市民の大規模監視への使用を、AI企業に拒否させないことを意味する。

Anthropicが開発するClaude(クロード)は、2025年に米軍の機密ネットワークに初めて導入されたAIとなった。ベネズエラのニコラス・マドゥロ拿捕作戦、そしてイラン軍事作戦での情報分析に活用されたとWSJが報じている。AIはもはや「将来の兵器」ではなく、今まさに実戦投入されているのだ。


事件の全タイムライン:わずか2週間で何が起きたか

この激突は驚くほどのスピードで展開した。主要な出来事を時系列で追う。

【2025年7月】Anthropic、米軍と2億ドル契約
ClaudeがAI企業として初めて軍の機密ネットワークに展開された。しかし利用制限をめぐる交渉は当初から火種を孕んでいた。

【2026年2月25日(火)】ヘグセス国防長官、Amodei CEOをペンタゴンに召喚
「すべての合法的用途を認めなければサプライチェーンリスクに指定する」と最後通牒。期限は金曜午後5時01分。

【2026年2月27日(金)午後3時47分】トランプ大統領、Truth Socialで爆弾投稿
「Anthropicはラジカル・レフト、ウォーク企業だ」と投稿し、全連邦機関に即座の使用停止を命令。期限より1時間以上早い"フライング"だった。

【2026年2月27日(金)夕方】OpenAI、ペンタゴンと電撃契約を発表
AnthropicがはじかれたわずかあとにSam AltmanがX(旧Twitter)でOpenAIとペンタゴンの機密システム展開合意を発表。AIコミュニティに衝撃が走る。

【2026年2月28日(土)】ClaudeがApp Store世界1位に/ChatGPTアンインストール急増
Anthropicの「拒否」を支持するユーザーが殺到。ClaudeがApp Storeの無料アプリランキングで20カ国超で1位を獲得。ChatGPTのアンインストール率は通常比295%増に。

【2026年3月1〜2日】AltmanがOpenAI契約の「失敗」を認める
「急ぎすぎた。ご都合主義に見えてしまった」とAltmanが公に謝罪。契約を修正し、国内監視禁止の条項を追記。OpenAIロボティクス部門リーダーが辞職。

【2026年3月6日(木)】ペンタゴン、Anthropicを正式に「サプライチェーンリスク」指定
「即時有効」と宣言。本来は中国・ロシアなど敵対国の企業に使う指定を米国のスタートアップに適用するという前例なき措置。Lockheed Martinなど防衛企業がAnthropicとの関係を断ち切り始める。

【2026年3月9日(月)】Anthropic、トランプ政権を連邦裁判所に提訴
カリフォルニア北部連邦地裁とワシントンD.C.連邦控訴裁判所に2件を同日提起。「違法かつ前例のない報復」と主張。OpenAI・Google DeepMindの研究者数十名が支持する意見書を提出。


登場人物と各プレイヤーの主張

🔴 Anthropic(クロード開発元)

  • 自律兵器への使用禁止をレッドライン(絶対条件)とする
  • 米市民の大規模監視への使用禁止をレッドラインとする
  • 政府の要求は「憲法・言論の自由」の侵害と主張
  • 指定後もClaudeはイラン作戦で使われ続けていると報道

🟢 OpenAI(ChatGPT開発元)

  • 「同じレッドラインを持つ」と主張しつつペンタゴンと契約
  • のちに「急ぎすぎた」と自己批判・契約を修正
  • 契約の全文は現在も非公開
  • 安全スタックを維持すると主張するが専門家から懐疑的な声

🔵 ペンタゴン(米国防総省)/ヘグセス国防長官

  • 「すべての合法的用途」での使用権限を要求
  • 民間企業が軍の指揮系統に入るべきでないと主張
  • 交渉中に並行してOpenAIと密かに条件を提示

🟡 トランプ大統領

  • AIの軍事・諜報活用を強力に推進
  • 期限より早くAnthropicへの停止命令を発令
  • 「ウォーク企業」と感情的な批判を展開
  • AltmanはStargate計画の旗振り役として政権と親密

💡 対立の本質:ペンタゴンは「合法な範囲ならAIをどう使っても民間企業に口を出させない」という立場。Anthropicは「技術を作った企業が倫理的ガードレールを保持する権利がある」という立場。この問いへの答えは、まだ法律にも国際条約にも存在しない。


なぜ400万人超がChatGPTを離れたのか

この一連の事件は、一般ユーザーの行動にも劇的な影響を与えた。

  • ChatGPTモバイルアプリのアンインストール率:通常比 +295%(OpenAIの契約発表翌日)
  • Claudeアプリの米国内ダウンロード増加:+51%(同日)
  • Anthropicへの新規登録者数:100万人/日(事件後1週間)
  • ClaudeがApp Store1位を獲得した国数:20カ国超

なぜここまでユーザーが動いたのか。答えはシンプルだ。多くのユーザーにとって、「自律兵器や市民監視に自分が使うAIを使わせたくない」というAnthropicの姿勢が倫理的に正しく映った。そしてその支持が「App Storeへの投票」という形で現れた。

「OpenAIは安全上のガードレールを削減し、主に使用ポリシーに頼っている他のAI企業と同じ道を進んでいる」
— Electronic Frontier Foundation(EFF)、2026年3月

一方でAnthropicは、週間100万人超の新規登録というビジネス上の恩恵を受けながらも、Lockheed Martinなど防衛企業との関係を失うという痛みも抱えている。「原則を守ることのコスト」が今まさに計算されている。


OpenAIの「駆け込み契約」とその波紋

「同じレッドライン」なのになぜ契約できたのか

Altmanは「自律兵器禁止・大規模監視禁止というレッドラインはAnthropicと同じだ」と主張した。しかしAnthropicが同じ条件を求めて交渉決裂したのに、OpenAIが数日で合意できた理由について、多くの専門家が疑問を呈している。

TechDirt、EFF(電子フロンティア財団)、法律専門家らは「OpenAIの契約文書は曖昧な逃げ道条項に満ちており、実質的に監視も自律兵器も禁止されていない」と指摘する。契約の全文は現在も公開されていない。

⚠️ 最大の懸念点:AltmanはAll-Handsミーティングで「ペンタゴンの使用法の最終決定権はヘグセス国防長官にある」と認めた。どれだけ「ガードレール」を謳っても、実際の運用を決めるのは政府側ということになる。

社内でも辞職者が

OpenAIのロボティクス部門リーダー、Caitlin Kalinowski氏は「原則を理由に辞職した」と公表。「AIの国家安全保障への活用は重要だが、司法監視なき米市民の監視と、人間の承認なき致死的自律性は、より多くの審議が必要だった」と声明を出した。


AnthropicがトランプをFile訴訟:何が問われているのか

2026年3月9日、Anthropicは2件の連邦訴訟を同時提起した。この訴訟が問う問いは、単なるビジネス紛争を超えている。

訴状の主な主張

「サプライチェーンリスク指定は、AIの安全性をめぐる同社の立場に対する違法な報復であり、憲法が保障する言論の自由と適正手続きを侵害する」と主張している。本来この指定は中国・ロシアなど「敵対国」の企業に適用されるものであり、上院軍事委員会のGillibrand上院議員(民主党)も「敵対技術を対象とした手段の危険な乱用だ」と批判した。

📌 訴訟が持つ歴史的意義:この裁判の結果次第で、「AI企業はどこまで自社技術の使われ方に口を出せるか」という問いへの法的答えが初めて示される可能性がある。OpenAI・Google DeepMindの研究者数十人が個人資格でAnthropicを支持する意見書を提出したことも注目を集めた。

Anthropic側はこの指定が「数億ドル規模の事業を破壊しかねない」と主張。一方でAmodei CEOは「ビジネスの問題ではなく、原則の問題だ」と繰り返し強調している。なお、ブラックリスト入りされた後もClaudeはイラン軍事作戦において引き続き使用されていたとReuters等が報じている。


日本への影響と私たちが考えるべきこと

日本企業・ユーザーへの直接的影響

日本の多くの企業がAnthropicのClaude APIを利用している。サプライチェーンリスク指定が日米の防衛関連企業にどう波及するかは、日本のAI導入戦略にも関わる問題だ。また日本政府もAI活用を推進しているが、「どこまでを合法的用途と定義するか」の基準はまだ整備されていない。

私たちが問い続けるべきこと

今回の事件が提起した問いは本質的だ。「AIを作った会社は、その技術の使われ方に責任を持てるか、持つべきか」という問いは、兵器だけでなく雇用、教育、医療、司法など、あらゆるAI活用に共通する。そして今、その答えを最初に求められているのが、この激動の最前線にいるAI企業たちだ。

✏️ 編集後記:この事件は日本のメディアでほとんど報道されていない。しかし私たちが「便利なツール」として日常的に使うChatGPTやClaudeが、今この瞬間も戦場での情報分析に使われ、その使われ方をめぐって政府とAI企業が法廷で争っている。それを知った上で使うのと知らずに使うのでは、意味が大きく違う。


まとめ:この事件の5つのポイント

  1. ペンタゴンはAIを自律兵器・市民監視に無制限で使いたいが、Anthropicはそれを拒否した
  2. トランプ大統領がAnthropicを「敵対国扱い」のサプライチェーンリスクに指定。米国史上初
  3. OpenAIは同じレッドラインを主張しながら電撃契約し、「裏切り者」と批判を浴びた
  4. ChatGPT離脱者が急増し、ClaudeはApp Store1位を20カ国超で達成。「ユーザーの倫理投票」が起きた
  5. Anthropicは連邦裁判所に提訴。AI企業の倫理的権利をめぐる歴史的な法廷闘争が始まった


参考・出典(2026年3月時点の報道)
OpenAI Official Blog / CNN Business / CNBC / NPR / TechCrunch / NBC News / Axios / Electronic Frontier Foundation / The Intercept / Understanding AI / Al Jazeera / Euronews / Washington Post

-IT小僧のブラック時事放談, 今日のAI話
-, ,

Copyright© IT小僧の時事放談 , 2026 All Rights Reserved Powered by AFFINGER5.