Anthropic-CEO Amodei leakt ein internes Memo, das direkt sagt, dass die Aussage von OpenAI-CEO Altman eine „völlige Lüge“ sei. Die beiden großen KI-Giganten stehen sich in einem offenen Konflikt um Militärverträge gegenüber.
(Vorheriger Kontext: Ist Sam Altman skrupellos? Gerade noch hat Anthropic, das vom Pentagon blockiert wurde, sich an OpenAI gewandt, um den Auftrag des US-Verteidigungsministeriums zu gewinnen.)
(Hintergrund: Wall Street Journal enthüllt: Trump setzt Claude AI ein, um Iran-Hamenei zu eliminieren, während OpenAI die Systeme des Pentagon vollständig übernimmt.)
Inhaltsverzeichnis
Toggle
1
Ein von Dario Amodei, CEO von Anthropic, verfasstes internes Memo an die Mitarbeiter ist durchgesickert. Darin bezeichnet er die Aussagen von OpenAI-CEO Sam Altman als „völlige Lügen“ und wirft dem Gegenüber vor, die neuesten Geschäfte mit dem Pentagon als „Sicherheits-Show“ zu inszenieren.
Zwei der weltweit einflussreichsten KI-Unternehmen stehen sich bei einer Frage gegenüber, die die nächsten zehn Jahre der KI-Entwicklung maßgeblich beeinflussen könnte.
Der Auslöser dieses Konflikts liegt bei dem ursprünglichen Militärvertrag im Wert von 200 Millionen Dollar, den Anthropic innehatte. Durch die Zusammenarbeit mit Palantir wurde Anthropic’s Claude AI in geheime Militärnetzwerke integriert.
Doch Ende Februar eskalierte die Lage schlagartig: Das Pentagon stellte Anthropic ein Ultimatum: Alle KI-Nutzungsbeschränkungen aufzuheben und „jegliche legale Nutzung“ uneingeschränkt zu erlauben, andernfalls würde der Vertrag bis zum 27. Februar gekündigt und das Unternehmen auf eine schwarze Liste gesetzt.
Amodei lehnte öffentlich ab und erklärte, er könne „nicht im Gewissen zulassen“, diese Bedingungen zu akzeptieren. Er bestand auf zwei unüberwindbaren roten Linien:
Weiterführende Lektüre: Trump will Anthropic vollständig verbieten! Ablehnung von Claude mit „Tötungsbeschränkungen“
Die Reaktion kam schnell und heftig. Innerhalb weniger Stunden nach der Ablehnung wurde das Unternehmen vom Trump-Regime als „Lieferkettenrisiko“ eingestuft (ein Begriff, der meist für ausländische Feindstaaten verwendet wird). Das Unternehmen wurde faktisch von allen Bundesverträgen ausgeschlossen und als „radikale Linke, Woke-Aktivisten und Sicherheitsrisiko“ diffamiert.
Nur wenige Stunden nach dem Ausschluss von Anthropic, am 28. Februar, kündigte Altman an, OpenAI habe eine Vereinbarung mit dem Verteidigungsministerium getroffen. In einem Blogbeitrag hieß es, der Vertrag beinhalte die gleichen „roten Linien“ wie bei Anthropic: Begrenzung autonomer Waffensysteme, keine groß angelegte inländische Überwachung und keine kritischen automatisierten Entscheidungen.
Doch die Teufel stecken im Detail. OpenAI erlaubt „jegliche legale Nutzung“, während Anthropic auf klare Verbote besteht. OpenAI erklärt dazu: „In unseren Interaktionen hat das Verteidigungsministerium deutlich gemacht, dass groß angelegte inländische Überwachung illegal ist und kein solches Vorhaben besteht.“
Kritiker weisen sofort auf ein Problem hin: Gesetze ändern sich. Was heute illegal ist, kann morgen legal werden. Damit ist die vertragliche Absicherung auf „legale Nutzung“ in ihrer Grundstruktur fragil.
Im durchgesickerten Memo bewertet Amodei die öffentliche Debatte sehr direkt:
Ich denke, diese Versuche, die öffentliche Meinung zu manipulieren, sind bei der breiten Masse und den Medien wirkungslos. Die meisten halten die Geschäfte von OpenAI mit dem Verteidigungsministerium für verdächtig, während wir die Helden sind.
Er attackiert auch Altmans Beweggründe:
Der Hauptgrund, warum sie akzeptieren und wir ablehnen, ist, dass ihnen die Beruhigung der Mitarbeiter wichtiger ist. Uns geht es wirklich darum, Missbrauch zu verhindern.
Laut TechCrunch wirft Amodei in dem Memo Altman vor, „sich als Friedensstifter und Deal-Macher zu inszenieren“. Angesichts der massiven Kritik gesteht Altman in einer Mitarbeiterversammlung ein, dass diese Entscheidung schwerwiegende Markenfolgen haben könnte, verteidigt sie aber als „komplex, aber richtig“ für die nationale Sicherheit.
Mit der Eskalation der Ereignisse reagieren die Nutzer praktisch: Die Nutzung von ChatGPT bei OpenAI steigt sprunghaft an; gleichzeitig verzeichnen Anthropic’s Claude-Apps einen deutlichen Anstieg bei den Downloads.
Anthropic hat sich entschieden, die Konsequenzen zu tragen: den Verlust von Bundesverträgen und Beziehungen zur Regierung. OpenAI setzt auf Kooperation, aber mit Einschränkungen, was das Vertrauen der Nutzer und die Markenreputation betrifft. Beide Wege haben ihre Logik, aber auch ihre Kosten.
Was wirklich beunruhigend ist: Diese Debatte offenbart ein tieferliegendes Problem. Im Zeitalter der schnellen Militarisierung von KI wächst die Kluft zwischen „legitim“ und „richtig“ immer weiter auseinander.