Die Wall Street Journal berichtete, dass trotz des Verbots durch Trump die US-Streitkräfte bei den Luftangriffen auf Iran weiterhin Claude verwendeten. Aufgrund der Ablehnung unbegrenzter militärischer Nutzung verlor Anthropic einen 200-Millionen-Dollar-Vertrag und wurde als „Lieferkettenrisiko“ eingestuft. Das Pentagon arbeitet jetzt mit OpenAI zusammen.
Kürzlich griffen die USA gemeinsam mit Israel Iran an, und die US-Regierung unter Trump verbot die Nutzung von Anthropic’s Claude AI durch Regierungsstellen, was internationale Aufmerksamkeit erregte. Laut einem Bericht der „Wall Street Journal“ verwendeten die US-Streitkräfte jedoch wenige Stunden nach Trumps Verbot bei einem Luftangriff auf Iran weiterhin das Claude-System.
Insider berichten, dass die Trump-Regierung am vergangenen Freitag die Bundesbehörden angewiesen habe, die Zusammenarbeit mit dem Unternehmen einzustellen, und das Verteidigungsministerium aufgefordert habe, es als potenzielles Sicherheitsrisiko zu betrachten. Doch inklusive des US Central Command (CENTCOM) nutzten militärische Kommandos weiterhin Anthropic’s Claude AI für Einsätze, um Geheimdienstanalysen zu unterstützen, potenzielle Ziele zu identifizieren und Kampfsimulationen durchzuführen.
Der Grund für das Verbot von Claude durch die US-Regierung lag in zerbrochenen Vertragsverhandlungen. Anthropic weigerte sich, Sicherheitsbarrieren zu durchbrechen und den Verteidigungsbeamten die unbegrenzte Nutzung ihrer KI für militärische Zwecke in legalen Szenarien zu erlauben.
Zuvor hatten Anthropic und mehrere andere große KI-Unternehmen langfristige Verträge im Wert von bis zu 200 Millionen US-Dollar mit dem Pentagon abgeschlossen. Durch Kooperationen mit Palantir und Amazon Web Services wurde Claude für geheime Geheimdienst- und Operationsprozesse zugelassen.
Laut „Wall Street Journal“ war Claude auch an frühen militärischen Einsätzen beteiligt, darunter eine Mission im Januar in Venezuela, bei der Präsident Nicolás Maduro festgenommen wurde. Er wurde von US-Truppen verhaftet und gewaltsam in die USA gebracht, wo er im Gerichtsverfahren seine Unschuld beteuerte.
Nachdem Verteidigungsminister Pete Hegseth von den USA verlangt hatte, Anthropic möge den Streitkräften unbegrenzten Zugriff auf Claude gewähren, verschärften sich die Spannungen. Anthropic-CEO Dario Amodei lehnte die Forderung ab und erklärte, bestimmte Anwendungen seien moralisch unakzeptabel, selbst wenn dies den Verlust von Regierungsaufträgen bedeuten würde.
Daraufhin begann das Pentagon, nach alternativen Anbietern zu suchen, und einigte sich mit OpenAI, um das ChatGPT-Modell in vertraulichen militärischen Netzwerken einzusetzen.
Nach Abschluss des Vertrags mit den US-Streitkräften stieß OpenAI auf Kritik. Sreemoy Talukdar von „Firstpost“ kommentierte, dass Anthropic zuvor seine Prinzipien bezüglich groß angelegter Überwachung im Inland und autonomer Waffensysteme betont hatte, woraufhin das Kriegsministerium unter Trump die Zusammenarbeit abbrach.
Doch jetzt behauptet OpenAI-CEO Sam Altman, dass das Verteidigungsministerium denselben Sicherheitsgrundsätzen zugestimmt habe, was zu Diskussionen über die Standards der Verträge führte.
Bildquelle: X OpenAI übernimmt US-Militärvertrag, Kritik wächst
Anthropic befindet sich derzeit im Konflikt mit dem Weißen Haus, nachdem es sich geweigert hatte, der US-Armee unbegrenzten Zugriff auf Claude zu gewähren. Verteidigungsminister Pete Hegseth hat öffentlich erklärt, Anthropic als „Lieferkettenrisiko“ einzustufen.
Damit ist Anthropic das erste US-Unternehmen, das offiziell mit dem Label „Lieferkettenrisiko“ versehen wurde. Normalerweise wird diese Einstufung nur Unternehmen mit direktem Bezug zu ausländischen Feindstaaten zuerkannt.
Nach der Einstufung kann die Regierung von allen Auftragnehmern, die mit dem Militär zusammenarbeiten, verlangen, nachzuweisen, dass ihre militärischen Arbeiten keinen Kontakt zu Anthropic-Produkten haben. Angesichts dieser Entscheidung plant Anthropic, rechtliche Schritte gegen die Einstufung als Lieferkettenrisiko einzuleiten und erklärt:
„Das verstößt weder gegen das Gesetz noch setzt es einen gefährlichen Präzedenzfall für US-Unternehmen, die mit der Regierung verhandeln. Egal, wie das Verteidigungsministerium droht oder bestraft, unsere Haltung zu groß angelegter Überwachung im Inland oder autonomen Waffen bleibt unverändert.“
Weiterführende Literatur:
Sicherheit vs. Ethik: Anthropic weigert sich, die Sicherheitsbarrieren von Claude zu entfernen, Konflikt mit dem US-Verteidigungsministerium