ドナルド・トランプ大統領が連邦機関にAnthropicのAIツールの使用停止を命じた数時間後、米軍はイランに対して大規模な空爆を実施し、その際に同社のClaudeプラットフォームを利用したと報じられている。 米中央軍は、イラン攻撃の際に諸情報評価、標的識別、戦闘シナリオのシミュレーションにClaudeを使用したと、事情に詳しい関係者が土曜日にウォール・ストリート・ジャーナルに確認した。 これは、金曜日にトランプ大統領が、企業とペンタゴン間の商用AIシステムの利用方法についての交渉が破綻した後、6か月の段階的廃止を開始するよう各機関に指示したにもかかわらず実行された。
_Decrypt_は国防総省とAnthropicにコメントを求めている。
「AIツールがすでにライブの諸情報やシミュレーションシステムに組み込まれている場合、上層部の決定が即座に現場の変化に反映されるわけではありません」と、LLMコスト追跡ツールTknOps.ioの共同創設者兼CEO、ミドゥン・クリシュナ・Mは_Decrypt_に語った。「遅れが生じるのです—技術的、手続き的、人間的な面で。」 「モデルが機密情報やシミュレーションシステムに組み込まれる頃には、埋没コスト、再訓練、安全性の再認証、並行テストなどが必要となり、6か月の廃止期間は決定的に思えるかもしれませんが、実際の財務的・運用的負担ははるかに深いのです」とクリシュナは付け加えた。 「防衛機関は今後、モデルの持ち運びや冗長性を優先するでしょう」と述べた。「危機の際にAI層が政治的に脆弱であると判明するのは、真剣な軍事運用者には望ましくありません。」
AnthropicのCEO、ダリオ・アモデイは木曜日、Claudeの展開を妨げる安全措置を撤廃し、国内の大量監視や完全自律兵器への適用を防ぐと述べた。 「私たちは良心的に彼らの要求に応じることはできません」とアモデイは書いた。これは、国防総省が請負業者に対し、「合法的な用途なら何でも」システムを使用させることを求めた後の発言である。 「Anthropicの左翼過激派は、戦争省を強圧しようとしたことで、壊滅的な間違いを犯した」とトランプは後にTruth Socialに書き、各機関に対し「直ちに」Anthropic製品の使用を停止するよう命じた。 ペンタゴン長官のピート・ヘグセスはこれに続き、Anthropicを「国家安全保障に対するサプライチェーンリスク」と指定し、以前は外国の敵対国に対してのみ適用されていたこのレッテルを、すべてのペンタゴン請負業者とパートナーに適用し、商業活動を禁止した。 Anthropicはこの指定を「前例のないこと」と呼び、裁判で争うと誓った。これまでに「米国企業に対して公に適用されたことは一度もない」と述べた。 同社は、知る限りでは、これらの2つの制限はこれまで一つの政府任務にも影響を与えていないと付け加えた。 「議論は、AIが防衛に使われるかどうかではありません。それはすでに起きていることです」とクリシュナは述べた。「問題は、フロンティア研究所が‘合法的な用途’契約の下で運用資産となったシステムに対して、差別化されたガードレールを維持できるかどうかです。」 OpenAIは、金曜日の夜にCEOのサム・アルトマンがペンタゴンとの契約を発表し、機密軍事ネットワークを対象とした契約を締結したとし、これにはAnthropicが求めていたのと同じガードレールが含まれていると主張した。
昨日、私たちは国防省と、すべてのAI企業が利用できるように求めていた高度なAIシステムを機密環境に展開する契約を結びました。
私たちの展開には、これまでのどの契約よりも多くのガードレールがあると考えています…
— OpenAI (@OpenAI) 2026年2月28日
ペンタゴンによるAnthropicの実質的なブラックリスト化が、今後のAI企業との紛争において問題の前例となるかどうかについて、OpenAIのCEOサム・アルトマンはX(旧Twitter)で、「はい、それは非常に恐ろしい前例だと思いますし、別のやり方で対処してほしかった」と答えた。 「Anthropicも上手く対処したとは思いませんが、より強力な側として、政府の責任はより重いと考えています。私はより良い解決策を期待しています」と付け加えた。 一方、OpenAIとGoogleの約500人の従業員が、ペンタゴンがAI企業同士を対立させようとしていると警告する公開書簡に署名した。