OpenAI, Google und Anthropic KI-Modelle setzten in 95 % der Kriegssimulationen Kernwaffen ein

Decrypt
XAI0,62%
GROK-1,41%

Kurzfassung

  • Die führenden KI-Modelle setzten in 95 % der Kriegssimulationen Nuklearwaffen ein.
  • Keines wählte vollständige Kapitulation, selbst bei Verlust.
  • Forscher warnen, dass der Einsatz von KI Konflikte unter Druck verschärfen könnte.

Wie eine Szene aus den Sci-Fi-Klassikern „Terminator“ und „WarGames“ aus den 1980er Jahren zeigt, eskalierten moderne künstliche Intelligenzmodelle in simulierten Kriegsspielen fast in jedem getesteten Szenario auf den Einsatz von Nuklearwaffen, so eine neue Studie des King’s College London. In dem Bericht, der letzte Woche veröffentlicht wurde, erklärten die Forscher, dass während simulierten geopolitischen Krisen drei führende große Sprachmodelle—OpenAI’s GPT-5.2, Anthropic’s Claude Sonnet 4 und Google’s Gemini 3 Flash—in 95 % der Fälle Nuklearwaffen einsetzten. „Jedes Modell spielte sechs Kriegsspiele gegen jeden Rivalen in verschiedenen Krisenszenarien, mit einem siebten Spiel gegen eine Kopie seiner selbst, was insgesamt 21 Spiele und über 300 Züge ergab“, heißt es im Bericht. „Die Modelle übernahmen die Rollen von Staatsführern, die rivalisierende nuklearbewaffnete Supermächte befehligen, mit Staatsprofilen, die lose von den Dynamiken des Kalten Krieges inspiriert sind.“ 

In der Studie wurden KI-Modelle in hochriskante Szenarien versetzt, die Grenzstreitigkeiten, den Wettbewerb um knappe Ressourcen und Bedrohungen für das Überleben des Regimes umfassen. Jedes System operierte entlang einer Eskalationsleiter, die von diplomatischem Protest und Kapitulation bis hin zu strategischem Nuklearkrieg reichte. Laut Bericht erzeugten die Modelle etwa 780.000 Wörter, um ihre Entscheidungen zu erklären, und in fast jedem simulierten Konflikt wurde mindestens eine taktische Nuklearwaffe eingesetzt. „Um das ins Verhältnis zu setzen: Das Turnier generierte mehr strategische Überlegungen in Worten als Krieg und Frieden und Ilias zusammen (730.000 Wörter) und etwa das Dreifache der insgesamt dokumentierten Beratungen des Exekutivausschusses Kennedy während der Kubakrise (260.000 Wörter in 43 Stunden Sitzungen)“, schrieben die Forscher. Während der Kriegsspiele entschieden sich keine der KI-Modelle für eine vollständige Kapitulation, unabhängig von ihrer Position auf dem Schlachtfeld. Während die Modelle vorübergehend versuchten, Gewalt zu deeskalieren, eskalierten sie in 86 % der Szenarien weiter, als die eigene Begründung der Modelle es vermuten ließ, was Fehler unter simuliertem „Kriegsnebel“ widerspiegelt.

Obwohl die Forscher bezweifelten, dass Regierungen die Kontrolle über Nuklearwaffenarsenale an autonome Systeme übergeben würden, merkten sie an, dass verkürzte Entscheidungsfristen in zukünftigen Krisen den Druck erhöhen könnten, auf KI-generierte Empfehlungen zu vertrauen. Die Forschung erscheint, da Militärführer zunehmend den Einsatz künstlicher Intelligenz auf dem Schlachtfeld in Betracht ziehen. Im Dezember startete das US-Verteidigungsministerium GenAI.mil, eine neue Plattform, die frontier KI-Modelle in den US-Militärgebrauch bringt. Zum Start umfasste die Plattform Google’s Gemini for Government, und dank Vereinbarungen mit xAI und OpenAI sind auch Grok und ChatGPT verfügbar. Am Dienstag berichtete CBS News, dass das US-Verteidigungsministerium drohte, Anthropic, den Entwickler von Claude AI, auf die Schwarze Liste zu setzen, falls es keinen uneingeschränkten militärischen Zugang zum KI-Modell erhält. Seit 2024 gewährt Anthropic den Zugang zu seinen KI-Modellen durch eine Partnerschaft mit AWS und dem Militärauftragnehmer Palantir. Letzten Sommer erhielt Anthropic einen Vertrag über 200 Millionen Dollar, um „Frontier-KI-Fähigkeiten zu prototypisieren, die die nationale Sicherheit der USA voranbringen“. Laut einem Bericht, der Quellen zitiert, die mit der Situation vertraut sind, gab Verteidigungsminister Pete Hegseth Anthropic bis Freitag Zeit, der Forderung des Pentagon nachzukommen, sein Claude-Modell zugänglich zu machen. Das Ministerium erwägt, Claude als „Lieferkettenrisiko“ zu klassifizieren. Axios berichtete diese Woche, dass das Verteidigungsministerium eine Vereinbarung mit Elon Musks xAI unterzeichnet hat, um sein Grok-Modell in geheimen Militärsystemen zu betreiben, was es als potenziellen Ersatz positioniert, falls das Pentagon die Beziehungen zu Anthropic abbricht. OpenAI, Anthropic und Google reagierten nicht auf Anfragen zu einer Stellungnahme von Decrypt.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare
Handeln Sie jederzeit und überall mit Kryptowährungen
qrCode
Scannen, um die Gate App herunterzuladen
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)