Wall Street Journal: Nach Trump’s Verhängung des Anthropic-Verbots greifen USA und Israel weiterhin auf Claude bei Angriffen auf den Iran zurück

CryptoCity

Die Wall Street Journal berichtete, dass trotz des Verbots durch Trump die US-Streitkräfte bei den Luftangriffen auf Iran weiterhin Claude verwendeten. Aufgrund der Ablehnung unbegrenzter militärischer Nutzung verlor Anthropic einen 200-Millionen-Dollar-Vertrag und wurde als „Lieferkettenrisiko“ eingestuft. Das Pentagon arbeitet jetzt mit OpenAI zusammen.

Nach Trumps Verbotslinie weiterhin auf Claude bei Angriffen auf Iran?

Kürzlich griffen die USA gemeinsam mit Israel Iran an, und die US-Regierung unter Trump verbot die Nutzung von Anthropic’s Claude AI durch Regierungsstellen, was internationale Aufmerksamkeit erregte. Laut einem Bericht der „Wall Street Journal“ verwendeten die US-Streitkräfte jedoch wenige Stunden nach Trumps Verbot bei einem Luftangriff auf Iran weiterhin das Claude-System.

Insider berichten, dass die Trump-Regierung am vergangenen Freitag die Bundesbehörden angewiesen habe, die Zusammenarbeit mit dem Unternehmen einzustellen, und das Verteidigungsministerium aufgefordert habe, es als potenzielles Sicherheitsrisiko zu betrachten. Doch inklusive des US Central Command (CENTCOM) nutzten militärische Kommandos weiterhin Anthropic’s Claude AI für Einsätze, um Geheimdienstanalysen zu unterstützen, potenzielle Ziele zu identifizieren und Kampfsimulationen durchzuführen.

Der Grund für das Verbot von Claude durch die US-Regierung lag in zerbrochenen Vertragsverhandlungen. Anthropic weigerte sich, Sicherheitsbarrieren zu durchbrechen und den Verteidigungsbeamten die unbegrenzte Nutzung ihrer KI für militärische Zwecke in legalen Szenarien zu erlauben.

Warum kam es zwischen Anthropic und dem Pentagon zum Konflikt?

Zuvor hatten Anthropic und mehrere andere große KI-Unternehmen langfristige Verträge im Wert von bis zu 200 Millionen US-Dollar mit dem Pentagon abgeschlossen. Durch Kooperationen mit Palantir und Amazon Web Services wurde Claude für geheime Geheimdienst- und Operationsprozesse zugelassen.

Laut „Wall Street Journal“ war Claude auch an frühen militärischen Einsätzen beteiligt, darunter eine Mission im Januar in Venezuela, bei der Präsident Nicolás Maduro festgenommen wurde. Er wurde von US-Truppen verhaftet und gewaltsam in die USA gebracht, wo er im Gerichtsverfahren seine Unschuld beteuerte.

  • Weitere Berichte: Maduro vor US-Gericht – Behauptet Unschuld! UNO hält Dringlichkeitssitzung zu Venezuela, alle Positionen im Überblick

Nachdem Verteidigungsminister Pete Hegseth von den USA verlangt hatte, Anthropic möge den Streitkräften unbegrenzten Zugriff auf Claude gewähren, verschärften sich die Spannungen. Anthropic-CEO Dario Amodei lehnte die Forderung ab und erklärte, bestimmte Anwendungen seien moralisch unakzeptabel, selbst wenn dies den Verlust von Regierungsaufträgen bedeuten würde.

Daraufhin begann das Pentagon, nach alternativen Anbietern zu suchen, und einigte sich mit OpenAI, um das ChatGPT-Modell in vertraulichen militärischen Netzwerken einzusetzen.

OpenAI übernimmt Militärvertrag, Kritik wächst

Nach Abschluss des Vertrags mit den US-Streitkräften stieß OpenAI auf Kritik. Sreemoy Talukdar von „Firstpost“ kommentierte, dass Anthropic zuvor seine Prinzipien bezüglich groß angelegter Überwachung im Inland und autonomer Waffensysteme betont hatte, woraufhin das Kriegsministerium unter Trump die Zusammenarbeit abbrach.

Doch jetzt behauptet OpenAI-CEO Sam Altman, dass das Verteidigungsministerium denselben Sicherheitsgrundsätzen zugestimmt habe, was zu Diskussionen über die Standards der Verträge führte.

Bildquelle: X OpenAI übernimmt US-Militärvertrag, Kritik wächst

Anthropic wird erstes US-Unternehmen, das als „Lieferkettenrisiko“ eingestuft wird

Anthropic befindet sich derzeit im Konflikt mit dem Weißen Haus, nachdem es sich geweigert hatte, der US-Armee unbegrenzten Zugriff auf Claude zu gewähren. Verteidigungsminister Pete Hegseth hat öffentlich erklärt, Anthropic als „Lieferkettenrisiko“ einzustufen.

Damit ist Anthropic das erste US-Unternehmen, das offiziell mit dem Label „Lieferkettenrisiko“ versehen wurde. Normalerweise wird diese Einstufung nur Unternehmen mit direktem Bezug zu ausländischen Feindstaaten zuerkannt.

Nach der Einstufung kann die Regierung von allen Auftragnehmern, die mit dem Militär zusammenarbeiten, verlangen, nachzuweisen, dass ihre militärischen Arbeiten keinen Kontakt zu Anthropic-Produkten haben. Angesichts dieser Entscheidung plant Anthropic, rechtliche Schritte gegen die Einstufung als Lieferkettenrisiko einzuleiten und erklärt:

„Das verstößt weder gegen das Gesetz noch setzt es einen gefährlichen Präzedenzfall für US-Unternehmen, die mit der Regierung verhandeln. Egal, wie das Verteidigungsministerium droht oder bestraft, unsere Haltung zu groß angelegter Überwachung im Inland oder autonomen Waffen bleibt unverändert.“

Weiterführende Literatur:
Sicherheit vs. Ethik: Anthropic weigert sich, die Sicherheitsbarrieren von Claude zu entfernen, Konflikt mit dem US-Verteidigungsministerium

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare
Handeln Sie jederzeit und überall mit Kryptowährungen
qrCode
Scannen, um die Gate App herunterzuladen
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)