Anthropicは、ドナルド・トランプ政権による広範なブラックリストに対抗して連邦裁判所に訴えを起こし、政府が安全性プロトコルの緩和を拒否したことに対してAIスタートアップを国家安全保障上の脅威とみなしたことは報復であると主張している。
この訴訟は、月曜日に米国北カリフォルニア地区裁判所に提起され、トランプ大統領が2月に連邦機関に対しAnthropicの技術の使用停止を指示した後の措置に異議を唱えている。これは、AnthropicのCEOダリオ・アモデイが、ペンタゴンのClaudeへの無制限アクセス要請に応じないと表明したことを受けている。訴状には、防衛長官ピート・ヘグセス、財務長官スコット・ベッセント、国務長官マルコ・ルビオなど複数の連邦機関と高官が被告として名を連ねている。
「憲法は、政府がその巨大な権力を行使して、保護された言論に対して罰を科すことを許していません」と、Anthropicの弁護士は訴訟で述べている。「ここで取られた行動を正当化する連邦法はありません。Anthropicは、権利を守り、行政の違法な報復キャンペーンを停止させるために、最後の手段として司法に訴えています。」
@POTUSの指示により、@USTreasuryは当省内でのAnthropic製品の使用、特にClaudeプラットフォームの使用をすべて停止しています。
アメリカ国民は、政府のすべてのツールが公共の利益に資することに信頼を置くべきであり、トランプ大統領の下で… https://t.co/R7rF0ci5CY
— 財務長官スコット・ベッセント (@SecScottBessent) 2026年3月2日
この紛争は、1月に始まった。ペンタゴンの関係者がAI請負業者に対し、「合法的な用途すべて」にシステムを使用できるように求めたことがきっかけだ。Anthropicはすでに国防総省と2億ドルの契約を結んでいたが、アメリカ国内の大規模監視や完全自律型致死兵器システムへのClaudeの使用を禁止する2つの安全保障措置を解除することを拒否した。
「問題の行動は、Anthropicに即時かつ取り返しのつかない損害をもたらすだけでなく、その言論を萎縮させる恐れがあり、同社が引き続き創出できる経済的価値を享受している他者や、AIが戦争や監視において何を意味するのかについての活発な議論と討論を望む世界の公共に対しても害を及ぼす」と、Anthropicの弁護士は訴状で述べている。
AI開発者の中には、シンギュラリティネットのCEOベン・ゴーツェルもおり、この指定は奇妙な選択であり、通常のサプライチェーンリスクの意味合いには合わないと指摘している。サプライチェーンリスクは、通常、敵対国のソフトウェアに隠されたマルウェアやウイルス、スパイウェアを含む可能性のあるものを指す。
「Anthropicが自律殺傷や大量監視のためにソフトウェアを使用させたくないというだけでは、そのリスクは生じないように思える」とゴーツェルは_decrypt_に語った。「自律殺傷や大量監視にソフトウェアを使いたいなら、他人のソフトウェアを買えばいいだけだ。だから、これをサプライチェーンリスクとする論理は理解できない。」
また、主要なAIモデル間の違いにより、この決定の実質的な影響は限定的であるとも述べている。
「結局のところ、Claude、ChatGPT、Geminiはそれほど大きく異なるわけではない」と彼は言う。「これらのトップシステムのいずれかが米国政府に使われている限り、すべて同じことだ。そして、情報機関は、極秘のクリアランスの下で、好きなようにソフトウェアを使うだろう。」
Anthropicは、政府の行動を違法と宣言し、「サプライチェーンリスク」指定の執行を阻止するよう裁判所に求めている。
「問題の行動には正当な理由がない」と訴状は述べている。「裁判所はこれらを違法と宣言し、被告がこれを実施するためのいかなる措置も取らないよう命じるべきだ。」
Anthropicは、_Decrypt_からのコメント要請には直ちに応じていない。
Anthropicを国家安全保障上のリスクと指定した後も、Claudeは米中央軍などの軍事作戦で使用されており、諜報分析やイラン攻撃のターゲット特定に役立てられている。
Cato Instituteの技術政策上級フェロー、ジェニファー・ハドリストンは、_Decrypt_と共有した声明の中で、国家安全保障の名の下に政府の行動を正当化する際の憲法上の保護について懸念を示した。
「過去には、裁判所は国家安全保障の懸念に関する政府の主張を疑問視することに慎重だったが、このケースの状況は、そうした主張の根底にある考慮事項が十分に精査されない場合、アメリカ人の第一修正権に対する実質的なリスクを浮き彫りにしている」と述べている。