The Wall Street Journal berichtet: Trump identifiziert Khamenei in Iran mit Claude AI, OpenAI übernimmt vollständig die Pentagon-Systeme

動區BlockTempo

Laut einem Bericht der Financial Times verwendete das US Central Command (CENTCOM) bei einem Luftangriff in Iran das Anthropic Claude AI-System, um Informationsanalysen, Zielerkennung und Kampfsimulationen durchzuführen – nur wenige Stunden nachdem Trump eine Exekutivorder zur Sperrung von Anthropic unterzeichnet hatte. Dieses Ereignis verdeutlicht, dass KI tief in die Verteidigungsinfrastruktur eingebunden ist, sodass eine sofortige Abschaltung durch ein Verbot kaum möglich ist.

Anthropic wurde vom Pentagon ausgeschlossen, weil es sich weigerte, die Beschränkungen für „autonome Waffen“ und „groß angelegte Überwachung“ aufzuheben, und OpenAI übernahm schnell die Kontrolle.

(Vorherige Zusammenfassung: Trump will Anthropic komplett verbieten! Weigert sich, Claude „Tötungsbeschränkungen“ zu entfernen – und OpenAI zeigt unerwartete Unterstützung.)

(Hintergrund: Pentagon konfrontiert Anthropic! Öffnet Claude für militärische Nutzung – „sonst Vertragskündigung“)

Inhaltsverzeichnis

Toggle

  • Das Verbot ist gerade unterschrieben, doch Claude arbeitet weiterhin „auf dem Schlachtfeld“
  • Anthropic hält an zwei roten Linien fest und wird „nicht gehorsam – dann weg“
  • OpenAI übernimmt schnell, das KI-Waffenrennen hat einen neuen Akteur
  • KI ist nicht mehr aufzuhalten: Das Verbot kann die technische Trägheit nicht stoppen

Am Freitag letzter Woche, als die Trump-Regierung befahl, Anthropic-Technologie vollständig zu stoppen, und der Verteidigungsminister sie sogar als „Lieferkettenrisiko“ einstufte, lief die US-Armee weiterhin mit Claude bei einem Luftangriff in Iran. Dieses scheinbar widersprüchliche Bild offenbart eine beunruhigende Realität: Die Durchdringung der KI in militärische Systeme hat ein Ausmaß erreicht, das durch administrative Verbote nicht sofort beseitigt werden kann.

Das Verbot ist gerade unterschrieben, doch Claude arbeitet weiterhin „auf dem Schlachtfeld“

Laut einem Bericht der Financial Times verwendete das US Central Command bei einem Luftangriff in Iran mit dem Codenamen „Operation Epic Fury“ weiterhin Claude für mehrere Schlüsselaufgaben – darunter Datenanalyse, Zielerkennungshilfe und Kampfsimulationen.

Anthropic hatte im Sommer letzten Jahres einen zweijährigen Prototyp-Vertrag im Wert von bis zu 200 Millionen US-Dollar mit dem Pentagon abgeschlossen. Durch Partnerschaften mit Palantir und Amazon Web Services wurde Claude zum ersten kommerziellen KI-Modell, das auf das geheime Netzwerk des Pentagon zugelassen wurde, mit Anwendungen von Waffentests bis hin zu Echtzeit-Kommunikation auf dem Schlachtfeld. Berichten zufolge wurde das System auch im Januar dieses Jahres bei der Unterstützung der Operationen des venezolanischen Präsidenten Maduro eingesetzt.

Anthropic hält an zwei roten Linien fest und wird „nicht gehorsam – dann weg“

Der Kernkonflikt besteht darin: Das Pentagon forderte Anthropic auf, die Nutzungsbeschränkungen im Vertrag zu entfernen und Claude für „alle legalen Zwecke“ zuzulassen. Doch Anthropic-CEO Dario Amodei weigerte sich zu kompromittieren und bestand auf zwei ethischen Grundsätzen:

Claude darf nicht für groß angelegte Überwachung amerikanischer Bürger verwendet werden und darf keine vollständig autonomen Waffensysteme antreiben.

Amodei erklärte, das Unternehmen sei gegen den Einsatz von KI für „groß angelegte inländische Überwachung“ und „vollständig autonome Waffensysteme“ und betonte, dass militärische Entscheidungen vom Menschen kontrolliert werden sollten, nicht von Algorithmen. In einer Erklärung schrieb er: „Wir können ihrem Wunsch nicht mit gutem Gewissen nachkommen.“

Verteidigungsminister Pete Hegseth stufte Anthropic sofort als „Lieferkettenrisiko“ ein, und Trump befahl direkt, dass alle Bundesbehörden „sofort die Nutzung“ von Anthropic-Technologie einstellen sollen – allerdings haben das Verteidigungsministerium und andere Schlüsselstellen noch eine Übergangsfrist von sechs Monaten. Anthropic kündigte an, diese Einstufung gerichtlich anzufechten, da sie „rechtswidrig“ sei, und warnte, dass dies eine gefährliche Präzedenz für „jede US-Firma, die mit der Regierung verhandelt“ schaffen könnte.

OpenAI übernimmt schnell, das KI-Waffenrennen hat einen neuen Akteur

Nur wenige Stunden nach Trumps Anordnung, Anthropic zu verbieten, kündigte OpenAI an, eine Vereinbarung mit dem Pentagon getroffen zu haben, um seine KI-Technologie in geheime militärische Netzwerke zu integrieren.

Bemerkenswert ist, dass OpenAI-CEO Sam Altman in einem CNBC-Interview öffentlich seine Unterstützung für Anthropic äußerte und sagte, es sei „vertrauenswürdig im Sicherheitsbereich“ – obwohl OpenAI letztlich den militärischen Vertrag, den Anthropic aufgeben musste, übernahm. Dieses subtile Spiel zwischen den KI-Giganten spiegelt die schwierige Balance zwischen kommerziellen Interessen und ethischen Überlegungen im Silicon Valley wider.

KI ist nicht mehr aufzuhalten: Das Verbot kann die technische Trägheit nicht stoppen

Das Erschütterndste an diesem Vorfall ist nicht die politische Auseinandersetzung zwischen Trump und Anthropic, sondern eine fundamentale Wahrheit: Wenn KI-Systeme bereits tief in alle militärischen Prozesse integriert sind – von der Informationsanalyse bis zur Zielerfassung – dann kann eine „Stromsteckerziehen“-Anordnung kaum kurzfristig wirksam werden.

Für die Krypto- und Web3-Community ist dieses Beispiel eine Mahnung: Ob KI oder Blockchain, wenn Technologien in die Kernbereiche von Regierung und Verteidigung vordringen, muss die Idee der „Dezentralisierung“ die Realität des „Staatswillens“ anerkennen. Das Schicksal von Anthropic zeigt, dass das Festhalten an technischer Ethik mit dem Risiko verbunden ist, den größten Kunden zu verlieren.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare
Handeln Sie jederzeit und überall mit Kryptowährungen
qrCode
Scannen, um die Gate App herunterzuladen
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)