Nach gescheiterten Verhandlungen mit dem Pentagon wurde Anthropic von der US-Regierung als Risiko für die Lieferkette eingestuft, während OpenAI umgehend bekannt gab, einen Vertrag mit dem Verteidigungsministerium abgeschlossen zu haben, um seine KI-Modelle in vertraulichen Umgebungen einzusetzen. Dieses Geschäft löste nicht nur in der Branche Aufsehen aus, sondern führte auch dazu, dass OpenAI-CEO Sam Altman selten offen zugab: „Dieser Deal war tatsächlich übereilt, der Eindruck ist nicht gut.“
(Anthropic und das Pentagon in direktem Konflikt! CEO Amodei lehnt „groß angelegte inländische Überwachung“ und „vollständig autonome Waffen“ ab)
Anthropic scheitert bei Verhandlungen, Trump-Regierung greift durch
Nach dem Scheitern der Verhandlungen mit dem Pentagon am vergangenen Freitag ordnete US-Präsident Donald Trump an, dass Bundesbehörden nach einer sechsmonatigen Übergangszeit die Nutzung von Anthropic-Technologien einstellen sollen. Verteidigungsminister Pete Hegseth bezeichnete Anthropic öffentlich als „Lieferkettenrisiko“.
Diese Entscheidung schockierte die KI-Branche. Anthropic betonte stets, seine Technologien nicht für „vollständig autonome Waffen“ oder „groß angelegte inländische Überwachung“ zu verwenden, und zog klare rote Linien. Dennoch schien diese Haltung keine Einigung mit dem Pentagon zu finden.
Während die Branche noch über diese Nachricht nachdachte, kündigte OpenAI schnell eine Vereinbarung mit dem Verteidigungsministerium an, um seine Modelle in vertraulichen Umgebungen zu betreiben. Der zeitliche Zufall sorgte für großes Interesse.
OpenAI: Unsere roten Linien haben sich nicht geändert
Angesichts der Kritik, ob OpenAI unter Druck der nationalen Sicherheit seine Haltung aufgegeben habe, veröffentlichte das Unternehmen einen Blogbeitrag, in dem drei klare Nutzungsverbote aufgelistet werden:
Groß angelegte inländische Überwachung
Autonome Waffensysteme
Hochrisiko-Automatisierungsentscheidungen (z.B. „Sozialkreditsysteme“)
OpenAI betonte, dass es sich von einigen KI-Firmen unterscheide, die „Sicherheitsvorkehrungen schwächen oder entfernen und nur auf Nutzungsrichtlinien setzen“, und dass die Zusammenarbeit mit dem Verteidigungsministerium eine „vielschichtige, umfassende“ Sicherheitsarchitektur aufweise.
Laut offiziellen Angaben behält OpenAI die vollständige Kontrolle über Sicherheitstechnologien, setzt Modelle über Cloud-APIs ein und stellt sicher, dass nur sicher geprüfte Personen Zugriff haben. Zudem gibt es strenge Vertragsklauseln und gesetzliche Vorgaben der USA als Schutz.
In der Erklärung heißt es auch: „Wir wissen nicht, warum Anthropic dieses Abkommen nicht abschließen konnte, hoffen aber, dass sie und andere Labore ihre Überlegungen noch einmal überdenken.“
Überwachungsverdacht: Executive Order 12333 im Fokus
Obwohl OpenAI seine roten Linien betont, stößt dies in der Tech-Community auf Skepsis. Techdirt-Gründer Mike Masnick weist darauf hin, dass im Vertrag erwähnt wird, dass die Datenerhebung im Einklang mit Executive Order 12333 und anderen Gesetzen erfolgen soll, was in der Praxis möglicherweise weiterhin Überwachung im Inland erlaubt.
Masnick erklärt, Executive Order 12333 sei seit langem umstritten, da sie die rechtliche Grundlage für die NSA bildet, ausländische Kommunikationskanäle zu überwachen, die US-Bürger betreffen. Er meint, dies bedeute, dass OpenAI-Verträge „tatsächlich Überwachung im Inland erlauben“.
Dagegen widerspricht Katrina Mulligan, Verantwortliche für nationale Sicherheit bei OpenAI, auf LinkedIn. Sie sagt, die Öffentlichkeit fokussiere sich nur auf einzelne Vertragsklauseln und nehme an, diese seien die einzige Barriere gegen den Einsatz von KI für groß angelegte Überwachung und autonome Waffen – diese Annahme sei „völlig falsch“.
Sie betont: „Die Deployments-Architektur ist wichtiger als Vertragsformulierungen.“ Durch die ausschließliche Nutzung von Cloud-APIs könne OpenAI sicherstellen, dass Modelle nicht direkt in Waffensysteme, Sensoren oder andere Kampfhardware integriert werden.
Sam Altman gibt zu: „Es war übereilt“ – um „die Branche zu beruhigen“?
Auf der Plattform X (ehemals Twitter) antwortete Sam Altman persönlich auf Fragen. Er gab offen zu, dass der Deal „wirklich übereilt“ war, und räumte ein, dass das Unternehmen erheblichen Gegenwind erleide.
Der Widerstand sei so groß, dass er sich sogar im Markt widerspiegele: Am Samstag überholte Anthropic’s Claude zeitweise die Download-Rankings von ChatGPT im Apple App Store.
(Anthropic nach Pentagon-Entscheid, Claude-Downloads steigen auf Platz 1)
Warum haben sie trotzdem unterschrieben?
Altman erklärt: „Wir wollten die Situation wirklich entschärfen, wir halten dieses Abkommen für vernünftig.“ Er fügte hinzu, dass, wenn diese Zusammenarbeit die Spannungen zwischen Verteidigungsministerium und KI-Branche mildern könne, OpenAI als ein Unternehmen gesehen werde, das Druck nachgibt und Stabilität fördert. Falls nicht, könnten die Kritiker weiterhin die Entscheidung als hastig und unüberlegt ansehen.
Der Kampf um Grenzen zwischen KI und Verteidigung: Neue Phase für die Branche
Dieser Konflikt zeigt ein tieferliegendes Problem: Wie können Tech-Unternehmen bei zunehmender Reife der KI-Technologie eine Balance zwischen nationaler Sicherheit und ethischen Grenzen finden?
Anthropic blieb bei seinen Prinzipien und verlor letztlich den Regierungsvertrag; OpenAI griff schnell ein und versucht, durch technische Strukturen und rechtliche Mechanismen Sicherheitsgrenzen zu sichern. Beide Strategien tragen unterschiedliche Risiken.
In Zukunft werden Kooperationen zwischen KI-Firmen und Regierungen wahrscheinlich zunehmen. Entscheidend ist, ob diese Partnerschaften die nationale Sicherheit gewährleisten können, ohne die Bürgerrechte und ethische Standards zu vernachlässigen.
Dieser Artikel: OpenAI sichert sich Pentagon-KI-Vertrag! Sam Altman gibt „übereilten Entschluss“ zu, betont Verzicht auf groß angelegte Überwachung und autonome Waffen. Erschienen zuerst bei Chain News ABMedia.