Anthropics KI wird in Iran-Streiks eingesetzt, nachdem Trump die Trennung zu beenden versuchte: WSJ

Decrypt

Kurzfassung

  • Das US-Zentralkommando soll Anthropic’s Claude für Geheimdienstbewertungen, Zielerkennung und Kampfsimulationen während der Iran-Luftangriffe eingesetzt haben.
  • Experten warnen, dass der sechsmonatige Abschaltungsplan die tatsächlichen Kosten für den Austausch eines in geheime Verteidigungsprozesse eingebetteten KI-Modells unterschätzt.
  • OpenAI schloss nach dem Konflikt mit Anthropic einen Deal mit dem Pentagon ab.

Nur wenige Stunden nachdem Präsident Donald Trump die Bundesbehörden angewiesen hatte, die Nutzung von Anthropic’s KI-Tools einzustellen, führte das US-Militär einen groß angelegten Luftangriff auf Iran durch, bei dem angeblich die Claude-Plattform des Unternehmens verwendet wurde. Das US-Zentralkommando nutzte Claude für Geheimdienstbewertungen, Zielerkennung und die Simulation von Kampfszenarien während der Iran-Luftangriffe, bestätigten mit der Angelegenheit vertraute Personen am Samstag gegenüber der Wall Street Journal. Dies geschah trotz Trumps Anweisung vom Freitag, dass die Behörden eine sechsmonatige Phase des Ausstiegs aus Anthropic-Produkten beginnen sollen, nachdem es zu Verhandlungen zwischen dem Unternehmen und dem Pentagon darüber gekommen war, wie das Pentagon kommerziell entwickelte KI-Systeme nutzen darf. Decrypt hat das Verteidigungsministerium und Anthropic um Stellungnahme gebeten.

 „Wenn KI-Tools bereits in laufende Geheimdienst- und Simulationssysteme eingebettet sind, führen Entscheidungen an der Spitze nicht sofort zu Änderungen vor Ort“, sagte Midhun Krishna M, Mitgründer und CEO des LLM-Kostenüberwachungstools TknOps.io, gegenüber Decrypt. „Es gibt eine Verzögerung – technisch, prozedural und menschlich.“ „Wenn ein Modell in geheime Geheimdienst- und Simulationssysteme integriert ist, fallen bereits Kosten für die Sunk-Integration, Nachschulungen, Sicherheitszertifizierungen und parallele Tests an. Ein sechsmonatiger Abschaltzeitraum mag entschlossen erscheinen, aber die tatsächliche finanzielle und operative Belastung ist viel tiefer“, fügte Krishna hinzu. „Verteidigungsbehörden werden nun Prioritäten auf Modellportabilität und Redundanz legen“, sagte er. „Kein ernsthafter Militärbetreiber möchte während einer Krise feststellen, dass seine KI-Schicht politisch fragil ist.“

Anthropic-CEO Dario Amodei sagte am Donnerstag, das Unternehmen werde keine Sicherheitsvorkehrungen entfernen, die Claude vor dem Einsatz für Massenüberwachung im Inland oder vollautonome Waffen schützen. „Wir können ihrem Wunsch aus gutem Gewissen nicht nachkommen“, schrieb Amodei, nachdem das Verteidigungsministerium von Auftragnehmern verlangt hatte, ihre Systeme für „jegliche rechtmäßige Nutzung“ freizugeben. „Die linksgerichteten Spinner bei Anthropic haben einen VERZIEHLICHEN FEHLER gemacht, indem sie versuchen, das Verteidigungsministerium zu erpressen“, schrieb Trump später auf Truth Social und befahl den Behörden, die Nutzung von Anthropic-Produkten „sofort einzustellen“. Verteidigungsminister Pete Hegseth folgte und bezeichnete Anthropic als „Lieferkettenrisiko für die nationale Sicherheit“, eine Bezeichnung, die zuvor nur für ausländische Gegner reserviert war, und untersagte jedem Pentagon-Auftragnehmer und Partner, mit dem Unternehmen kommerziell zu arbeiten. Anthropic nannte die Bezeichnung „beispiellos“ und kündigte an, sie vor Gericht anzufechten, da sie „noch nie öffentlich auf ein amerikanisches Unternehmen angewendet wurde“. Das Unternehmen fügte hinzu, dass nach ihrem Kenntnisstand die beiden strittigen Einschränkungen bisher keinen einzigen Regierungseinsatz beeinträchtigt hätten. „Die Debatte dreht sich nicht darum, ob KI im Verteidigungsbereich eingesetzt wird, das passiert bereits“, sagte Krishna. „Es geht darum, ob Frontforschungslabore ihre differenzierten Schutzmaßnahmen aufrechterhalten können, sobald ihre Systeme unter ‚jegliche rechtmäßige Nutzung‘-Verträgen operativ werden.“ OpenAI reagierte schnell und kündigte am Freitagabend eine Vereinbarung mit dem Pentagon an, die angeblich die gleichen Schutzmaßnahmen wie Anthropic enthalten sollte.

Gestern haben wir eine Vereinbarung mit dem Verteidigungsministerium getroffen, um fortschrittliche KI-Systeme in geheimen Umgebungen einzusetzen, die wir alle KI-Unternehmen zugänglich machen wollten.

Wir sind der Meinung, dass unsere Einsatzvereinbarung mehr Schutzmaßnahmen enthält als jede vorherige Vereinbarung für geheime KI…

— OpenAI (@OpenAI) 28. Februar 2026

Auf die Frage, ob die effektive Blacklist von Anthropic durch das Pentagon einen beunruhigenden Präzedenzfall für zukünftige Streitigkeiten mit KI-Firmen darstelle, antwortete OpenAI-CEO Sam Altman auf X: „Ja; ich halte das für einen äußerst beängstigenden Präzedenzfall, und ich wünschte, sie hätten es anders gehandhabt. „Ich denke auch nicht, dass Anthropic es gut gemacht hat, aber als die mächtigere Partei trage ich die Verantwortung mehr beim Staat. Ich bin weiterhin hoffnungsvoll auf eine viel bessere Lösung“, fügte er hinzu. In der Zwischenzeit unterschrieben fast 500 Mitarbeiter von OpenAI und Google einen offenen Brief, in dem gewarnt wird, dass das Pentagon versucht, KI-Unternehmen gegeneinander auszuspielen.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare
Handeln Sie jederzeit und überall mit Kryptowährungen
qrCode
Scannen, um die Gate App herunterzuladen
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)