米国中央司令部(CENTCOM)がイラン空爆作戦でAnthropicのClaude AIシステムを使用し、情報分析、目標識別、戦場シミュレーションを行っていたことが『ウォール・ストリート・ジャーナル』の報道で明らかになった。しかし、その数時間後にはトランプ大統領がAnthropicの規制を命じる行政命令に署名していた。この事件は、AIが国防インフラに深く浸透しており、大統領の禁令だけでは即座に切り離せない現実を浮き彫りにしている。Anthropicは「自主兵器」や「大規模監視」の制限を拒否したため、米国防総省(Pentagon)から排除され、OpenAIが急遽引き継いだ。
(前提:トランプがAnthropic全面封殺!Claudeの「殺人制限」拒否で、敵対するOpenAIが異例の支援)
(背景補足:PentagonがAnthropicに対して「Claudeの軍用利用を全面解禁しなければ契約解除」)
目次
Toggle
トランプ政権は先週金曜日にAnthropicの技術全面停止を命じた同日、国防長官はこれを「サプライチェーンリスク」としてリストアップしたが、米軍のイラン空爆はClaude AIに依存し続けていた。この矛盾した状況は、AIが軍事システムに深く浸透し、行政命令の即時実行範囲を超えている現実を示している。
『ウォール・ストリート・ジャーナル』の情報筋によると、米中央司令部は「エピック・フューリー作戦」(Operation Epic Fury)と呼ばれるイラン空爆作戦で、Claudeを使った情報分析、ターゲット識別補助、戦場シミュレーションなどの重要任務を継続していた。
Anthropicは昨夏、Pentagonと2年間最大2億ドルのプロトタイプ契約を締結。PalantirやAmazon Web Servicesと提携し、Claudeは米国防総省の機密ネットワーク上で動作可能な最初の商用AIモデルとなった。用途は兵器試験からリアルタイムの戦場通信まで多岐にわたる。報道によると、今年1月にはベネズエラのマドゥロ大統領の行動支援にもClaudeが使われた。
対立の核心は、PentagonがAnthropicに対し、「すべての合法的用途にClaudeを使えるよう契約条件を緩和せよ」と要求したことにある。しかし、AnthropicのCEOダリオ・アモデイは妥協を拒否し、二つの倫理的ラインを堅持した。
一つは、Claudeを米国市民の大規模監視に使わないこと。もう一つは、完全に自主的な武器システムに使わないことだ。
アモデイは声明で、「我々は良心に反して彼らの要求に応じることはできない」と述べた。国防長官ピート・ヘグセットはAnthropicを「サプライチェーンリスク」に指定し、トランプはすべての連邦機関に対し「直ちにAnthropicの技術使用を停止せよ」と命じた。ただし、国防総省など主要部門には6か月の移行期間が設けられている。Anthropicはこの決定に対し法廷で異議を唱える意向を示し、「根拠のない決定だ」と警告している。
トランプがAnthropicの封殺を宣言した数時間後、OpenAIは米国防省と契約を結び、機密軍事ネットワーク上でAI技術を展開することを発表した。
特筆すべきは、この争議の最中、OpenAIのサム・アルトマンCEOがCNBCのインタビューで「Anthropicは安全性の面で信頼できる」と公に支持したことだ。最終的にOpenAIは、Anthropicが放棄した軍事契約を引き継ぐ形となった。こうしたAI大手の微妙な動きは、シリコンバレーにおける商業利益と倫理の間の難しい綱引きを映し出している。
今回の事件で最も深く考えさせられるのは、トランプとAnthropicの政治的駆け引きではなく、より根本的な事実だ。AIシステムが情報分析からターゲット設定までの軍事のあらゆる段階に深く浸透してしまった今、「電源を切る」行政命令は短期間で効果を発揮できない。
暗号通貨やWeb3コミュニティにとっても、この事例は警鐘となるだろう。AIやブロックチェーンが政府や国防の中核に入り込むとき、「分散化」の理想は「国家の意志」との現実的な対立に直面する。Anthropicの事例は、技術倫理を守ることの代償が、最大の顧客を失うことにつながる可能性を示している。