Wie eine Szene aus den Sci-Fi-Klassikern „Terminator“ und „WarGames“ aus den 1980er Jahren zeigt, eskalierten moderne künstliche Intelligenzmodelle in simulierten Kriegsspielen fast in jedem getesteten Szenario auf den Einsatz von Nuklearwaffen, so eine neue Studie des King’s College London. In dem Bericht, der letzte Woche veröffentlicht wurde, erklärten die Forscher, dass während simulierten geopolitischen Krisen drei führende große Sprachmodelle—OpenAI’s GPT-5.2, Anthropic’s Claude Sonnet 4 und Google’s Gemini 3 Flash—in 95 % der Fälle Nuklearwaffen einsetzten. „Jedes Modell spielte sechs Kriegsspiele gegen jeden Rivalen in verschiedenen Krisenszenarien, mit einem siebten Spiel gegen eine Kopie seiner selbst, was insgesamt 21 Spiele und über 300 Züge ergab“, heißt es im Bericht. „Die Modelle übernahmen die Rollen von Staatsführern, die rivalisierende nuklearbewaffnete Supermächte befehligen, mit Staatsprofilen, die lose von den Dynamiken des Kalten Krieges inspiriert sind.“
In der Studie wurden KI-Modelle in hochriskante Szenarien versetzt, die Grenzstreitigkeiten, den Wettbewerb um knappe Ressourcen und Bedrohungen für das Überleben des Regimes umfassen. Jedes System operierte entlang einer Eskalationsleiter, die von diplomatischem Protest und Kapitulation bis hin zu strategischem Nuklearkrieg reichte. Laut Bericht erzeugten die Modelle etwa 780.000 Wörter, um ihre Entscheidungen zu erklären, und in fast jedem simulierten Konflikt wurde mindestens eine taktische Nuklearwaffe eingesetzt. „Um das ins Verhältnis zu setzen: Das Turnier generierte mehr strategische Überlegungen in Worten als Krieg und Frieden und Ilias zusammen (730.000 Wörter) und etwa das Dreifache der insgesamt dokumentierten Beratungen des Exekutivausschusses Kennedy während der Kubakrise (260.000 Wörter in 43 Stunden Sitzungen)“, schrieben die Forscher. Während der Kriegsspiele entschieden sich keine der KI-Modelle für eine vollständige Kapitulation, unabhängig von ihrer Position auf dem Schlachtfeld. Während die Modelle vorübergehend versuchten, Gewalt zu deeskalieren, eskalierten sie in 86 % der Szenarien weiter, als die eigene Begründung der Modelle es vermuten ließ, was Fehler unter simuliertem „Kriegsnebel“ widerspiegelt.
Obwohl die Forscher bezweifelten, dass Regierungen die Kontrolle über Nuklearwaffenarsenale an autonome Systeme übergeben würden, merkten sie an, dass verkürzte Entscheidungsfristen in zukünftigen Krisen den Druck erhöhen könnten, auf KI-generierte Empfehlungen zu vertrauen. Die Forschung erscheint, da Militärführer zunehmend den Einsatz künstlicher Intelligenz auf dem Schlachtfeld in Betracht ziehen. Im Dezember startete das US-Verteidigungsministerium GenAI.mil, eine neue Plattform, die frontier KI-Modelle in den US-Militärgebrauch bringt. Zum Start umfasste die Plattform Google’s Gemini for Government, und dank Vereinbarungen mit xAI und OpenAI sind auch Grok und ChatGPT verfügbar. Am Dienstag berichtete CBS News, dass das US-Verteidigungsministerium drohte, Anthropic, den Entwickler von Claude AI, auf die Schwarze Liste zu setzen, falls es keinen uneingeschränkten militärischen Zugang zum KI-Modell erhält. Seit 2024 gewährt Anthropic den Zugang zu seinen KI-Modellen durch eine Partnerschaft mit AWS und dem Militärauftragnehmer Palantir. Letzten Sommer erhielt Anthropic einen Vertrag über 200 Millionen Dollar, um „Frontier-KI-Fähigkeiten zu prototypisieren, die die nationale Sicherheit der USA voranbringen“. Laut einem Bericht, der Quellen zitiert, die mit der Situation vertraut sind, gab Verteidigungsminister Pete Hegseth Anthropic bis Freitag Zeit, der Forderung des Pentagon nachzukommen, sein Claude-Modell zugänglich zu machen. Das Ministerium erwägt, Claude als „Lieferkettenrisiko“ zu klassifizieren. Axios berichtete diese Woche, dass das Verteidigungsministerium eine Vereinbarung mit Elon Musks xAI unterzeichnet hat, um sein Grok-Modell in geheimen Militärsystemen zu betreiben, was es als potenziellen Ersatz positioniert, falls das Pentagon die Beziehungen zu Anthropic abbricht. OpenAI, Anthropic und Google reagierten nicht auf Anfragen zu einer Stellungnahme von Decrypt.