Nur wenige Stunden nachdem Präsident Donald Trump die Bundesbehörden angewiesen hatte, die Nutzung von Anthropic’s KI-Tools einzustellen, führte das US-Militär einen groß angelegten Luftangriff auf Iran durch, bei dem angeblich die Claude-Plattform des Unternehmens verwendet wurde. Das US-Zentralkommando nutzte Claude für Geheimdienstbewertungen, Zielerkennung und die Simulation von Kampfszenarien während der Iran-Luftangriffe, bestätigten mit der Angelegenheit vertraute Personen am Samstag gegenüber der Wall Street Journal. Dies geschah trotz Trumps Anweisung vom Freitag, dass die Behörden eine sechsmonatige Phase des Ausstiegs aus Anthropic-Produkten beginnen sollen, nachdem es zu Verhandlungen zwischen dem Unternehmen und dem Pentagon darüber gekommen war, wie das Pentagon kommerziell entwickelte KI-Systeme nutzen darf. Decrypt hat das Verteidigungsministerium und Anthropic um Stellungnahme gebeten.
„Wenn KI-Tools bereits in laufende Geheimdienst- und Simulationssysteme eingebettet sind, führen Entscheidungen an der Spitze nicht sofort zu Änderungen vor Ort“, sagte Midhun Krishna M, Mitgründer und CEO des LLM-Kostenüberwachungstools TknOps.io, gegenüber Decrypt. „Es gibt eine Verzögerung – technisch, prozedural und menschlich.“ „Wenn ein Modell in geheime Geheimdienst- und Simulationssysteme integriert ist, fallen bereits Kosten für die Sunk-Integration, Nachschulungen, Sicherheitszertifizierungen und parallele Tests an. Ein sechsmonatiger Abschaltzeitraum mag entschlossen erscheinen, aber die tatsächliche finanzielle und operative Belastung ist viel tiefer“, fügte Krishna hinzu. „Verteidigungsbehörden werden nun Prioritäten auf Modellportabilität und Redundanz legen“, sagte er. „Kein ernsthafter Militärbetreiber möchte während einer Krise feststellen, dass seine KI-Schicht politisch fragil ist.“
Anthropic-CEO Dario Amodei sagte am Donnerstag, das Unternehmen werde keine Sicherheitsvorkehrungen entfernen, die Claude vor dem Einsatz für Massenüberwachung im Inland oder vollautonome Waffen schützen. „Wir können ihrem Wunsch aus gutem Gewissen nicht nachkommen“, schrieb Amodei, nachdem das Verteidigungsministerium von Auftragnehmern verlangt hatte, ihre Systeme für „jegliche rechtmäßige Nutzung“ freizugeben. „Die linksgerichteten Spinner bei Anthropic haben einen VERZIEHLICHEN FEHLER gemacht, indem sie versuchen, das Verteidigungsministerium zu erpressen“, schrieb Trump später auf Truth Social und befahl den Behörden, die Nutzung von Anthropic-Produkten „sofort einzustellen“. Verteidigungsminister Pete Hegseth folgte und bezeichnete Anthropic als „Lieferkettenrisiko für die nationale Sicherheit“, eine Bezeichnung, die zuvor nur für ausländische Gegner reserviert war, und untersagte jedem Pentagon-Auftragnehmer und Partner, mit dem Unternehmen kommerziell zu arbeiten. Anthropic nannte die Bezeichnung „beispiellos“ und kündigte an, sie vor Gericht anzufechten, da sie „noch nie öffentlich auf ein amerikanisches Unternehmen angewendet wurde“. Das Unternehmen fügte hinzu, dass nach ihrem Kenntnisstand die beiden strittigen Einschränkungen bisher keinen einzigen Regierungseinsatz beeinträchtigt hätten. „Die Debatte dreht sich nicht darum, ob KI im Verteidigungsbereich eingesetzt wird, das passiert bereits“, sagte Krishna. „Es geht darum, ob Frontforschungslabore ihre differenzierten Schutzmaßnahmen aufrechterhalten können, sobald ihre Systeme unter ‚jegliche rechtmäßige Nutzung‘-Verträgen operativ werden.“ OpenAI reagierte schnell und kündigte am Freitagabend eine Vereinbarung mit dem Pentagon an, die angeblich die gleichen Schutzmaßnahmen wie Anthropic enthalten sollte.
Gestern haben wir eine Vereinbarung mit dem Verteidigungsministerium getroffen, um fortschrittliche KI-Systeme in geheimen Umgebungen einzusetzen, die wir alle KI-Unternehmen zugänglich machen wollten.
Wir sind der Meinung, dass unsere Einsatzvereinbarung mehr Schutzmaßnahmen enthält als jede vorherige Vereinbarung für geheime KI…
— OpenAI (@OpenAI) 28. Februar 2026
Auf die Frage, ob die effektive Blacklist von Anthropic durch das Pentagon einen beunruhigenden Präzedenzfall für zukünftige Streitigkeiten mit KI-Firmen darstelle, antwortete OpenAI-CEO Sam Altman auf X: „Ja; ich halte das für einen äußerst beängstigenden Präzedenzfall, und ich wünschte, sie hätten es anders gehandhabt. „Ich denke auch nicht, dass Anthropic es gut gemacht hat, aber als die mächtigere Partei trage ich die Verantwortung mehr beim Staat. Ich bin weiterhin hoffnungsvoll auf eine viel bessere Lösung“, fügte er hinzu. In der Zwischenzeit unterschrieben fast 500 Mitarbeiter von OpenAI und Google einen offenen Brief, in dem gewarnt wird, dass das Pentagon versucht, KI-Unternehmen gegeneinander auszuspielen.