Am 25. Februar hat Anthropic kürzlich seine Sicherheitspolitik im Bereich künstliche Intelligenz angepasst und das ursprüngliche Versprechen gestrichen, die Ausbildung fortgeschrittener künstlicher Intelligenzsysteme vor vollständigen Sicherheitsmaßnahmen zu verbieten. Diese Änderung gibt Anthropic größere Flexibilität im Wettbewerb mit OpenAI, Google und xAI und löst zugleich Diskussionen in der Branche über das Gleichgewicht zwischen der schnellen Entwicklung künstlicher Intelligenz und Sicherheitsgarantien an.
Anthropics Chief Scientific Officer, Jared Kaplan, sagte, das Einstellen des Trainings löse Sicherheitsprobleme nicht wirklich, und es sei nicht klug, die Entwicklung einseitig auszusetzen, wenn die Wettbewerber schnell voranschreiten. Das Unternehmen betont, dass es die Transparenz erhöhen wird, indem es modernste Sicherheitspläne und regelmäßige Risikoberichte veröffentlicht sowie die Entwicklung verzögert, falls erhebliche Katastrophenrisiken identifiziert werden.
Edward Geist, leitender Policy Researcher bei der RAND Corporation, wies darauf hin, dass das frühe Konzept der KI-Sicherheit aus dem Fokus auf eine bestimmte Gruppe leistungsstarker KI resultierte, und dass aktuelle große Sprachmodelle (LLMs) dieses Konzept neu definiert haben. Die Änderung der politischen Formulierung sendet ein Signal an Investoren und politische Entscheidungsträger, dass Unternehmen Risiken managen wollen und dabei wirtschaftlich wettbewerbsfähig bleiben.
OpenAI überarbeitete 2024 außerdem seine Leitbild, um das Wort “Sicherheit” zu entfernen und das Ziel als “Sicherstellung, dass künstliche allgemeine Intelligenz allen Menschen zugutekommt” festzulegen. Diese Reihe von Anpassungen zeigt, dass Branchenführer in Bezug auf Politik und Formulierung auf flexiblere und skalierbarere Strategien übergehen.
Anthropic hat kürzlich eine Finanzierung in Höhe von 30 Milliarden Dollar mit einer Bewertung von etwa 380 Milliarden Dollar abgeschlossen; OpenAI sammelt außerdem bis zu 100 Milliarden US-Dollar. In diesem Zusammenhang sehen sich KI-Unternehmen geopolitischem Wettbewerb und staatlichen Vertragsüberlegungen gegenüber. Ob das US-Verteidigungsministerium weiterhin mit Anthropic zusammenarbeiten wird, ist noch nicht geklärt, was die politische Verschiebung kluger und strategischer macht.
Zusammengenommen markieren die politischen Anpassungen zwischen Anthropic und OpenAI eine neue Phase im Spiel zwischen schneller Entwicklung und Sicherheitsregulierung in der Künstlichen Intelligenz-Branche und spiegeln zugleich die strategische Flexibilität von Unternehmen unter Kapitalförderung und politischem Druck wider.