Anthropic, OpenAI drosseln Sicherheitsvokabular ab, während das KI-Rennen sich beschleunigt

Decrypt
XAI7,81%

Kurzfassung

  • TIME berichtet, dass Anthropic eine Zusage zum Stopp des Trainings ohne garantierte Sicherheitsvorkehrungen fallen ließ.
  • OpenAI entfernte nach der Umstrukturierung in eine gewinnorientierte Organisation ebenfalls das Wort „sicher“ aus seiner Mission.
  • Experten sagen, dass die Veränderung politische, wirtschaftliche und intellektuelle Veränderungen widerspiegelt.

Anthropic hat laut einem Bericht von TIME eine zentrale Sicherheitszusage aus seiner Responsible Scaling Policy gestrichen. Die Änderungen lockern eine Verpflichtung, die einst den Claude-KI-Entwickler daran hinderte, fortschrittliche KI-Systeme ohne garantierte Sicherheitsvorkehrungen zu trainieren. Die Maßnahme verändert die Positionierung des Unternehmens im KI-Wettlauf gegen Rivalen wie OpenAI, Google und xAI. Anthropic hat sich lange als eines der sicherheitsorientiertesten Labore der Branche dargestellt, doch unter der überarbeiteten Policy verspricht Anthropic nicht mehr, das Training zu stoppen, wenn Risikominderungen nicht vollständig umgesetzt sind. „Wir waren der Meinung, dass es niemandem wirklich helfen würde, das KI-Training zu stoppen“, sagte Jared Kaplan, Chief Science Officer von Anthropic, gegenüber TIME. „Angesichts des rasanten Fortschritts der KI hielten wir es nicht für sinnvoll, einseitige Verpflichtungen einzugehen … wenn die Wettbewerber voranschreiten.“ 

Die Änderung erfolgt, während Anthropic in einen öffentlichen Streit mit US-Verteidigungsminister Pete Hegseth verwickelt ist, weil es dem Pentagon keinen vollen Zugang zu Claude gewährt. Damit ist Anthropic das einzige große KI-Labor neben Google, xAI, Meta und OpenAI, das diese Haltung einnimmt. Edward Geist, leitender Politikwissenschaftler bei der RAND Corporation, sagte, dass die frühere „KI-Sicherheits“-Rhetorik aus einer bestimmten intellektuellen Gemeinschaft stammte, die vor den heutigen großen Sprachmodellen existierte. „Vor einigen Jahren gab es das Feld der KI-Sicherheit“, sagte Geist gegenüber Decrypt. „KI-Sicherheit wurde mit einer bestimmten Sichtweise assoziiert, die aus der Gemeinschaft von Menschen kam, die sich vor den mächtigen KI-Systemen sorgten, bevor wir diese LLMs hatten.“ Geist erklärte, dass frühe Befürworter der KI-Sicherheit mit einer ganz anderen Vision von fortgeschrittener künstlicher Intelligenz arbeiteten.

„Sie haben das Problem in einer Weise konzipiert, die in gewisser Hinsicht etwas völlig anderes als diese aktuellen LLMs vorstellte, zum Besseren oder Schlechteren“, sagte Geist. Geist sagte, die Sprachänderung sende auch ein Signal an Investoren und politische Entscheidungsträger. „Ein Teil davon ist, verschiedenen Interessengruppen zu signalisieren, dass viele dieser Unternehmen den Eindruck erwecken wollen, im wirtschaftlichen Wettbewerb nicht zurückzustecken wegen Bedenken hinsichtlich ‚KI-Sicherheit‘“, sagte er und fügte hinzu, dass sich die Terminologie selbst an die Zeiten anpasst. Anthropic ist nicht das einzige Unternehmen, das seine Sicherheitsaussagen überarbeitet. Was definiert KI-Sicherheit? Ein aktueller Bericht der gemeinnützigen Nachrichtenorganisation The Conversation stellte fest, dass OpenAI in seiner Steuererklärung für 2024 ebenfalls sein Leitbild änderte und das Wort „sicher“ entfernte. Früher verpflichtete sich das Unternehmen, allgemeine KI zu entwickeln, die „sicher zum Nutzen der Menschheit beiträgt, ohne auf finanzielle Gewinne angewiesen zu sein.“ Die aktualisierte Version lautet nun, dass das Ziel darin bestehe, „zu gewährleisten, dass künstliche allgemeine Intelligenz allen Menschen zugutekommt.“ „Das Problem mit dem Begriff KI-Sicherheit ist, dass niemand genau weiß, was das bedeutet“, sagte Geist. „Andererseits war auch der Begriff der KI-Sicherheit umstritten.“ Anthropics neue Policy legt Wert auf Transparenzmaßnahmen wie die Veröffentlichung von „Grenzsicherheits-Roadmaps“ und regelmäßigen „Risiko-Berichten“ und erklärt, dass sie die Entwicklung verzögern werden, wenn sie ein erhebliches Katastrophenrisiko sehen.

Die Policy-Änderungen von Anthropic und OpenAI erfolgen, während die Unternehmen ihre wirtschaftliche Position stärken wollen. Anfang dieses Monats gab Anthropic bekannt, dass es 30 Milliarden Dollar bei einer Bewertung von etwa 380 Milliarden Dollar aufgenommen hat. Gleichzeitig schließt OpenAI eine Finanzierungsrunde ab, die von Amazon, Microsoft und Nvidia unterstützt wird und bis zu 100 Milliarden Dollar erreichen könnte. Anthropic und OpenAI, zusammen mit Google und xAI, haben lukrative Regierungsaufträge vom US-Verteidigungsministerium erhalten. Für Anthropic scheint der Vertrag jedoch in Frage zu stehen, da das Pentagon prüft, ob es die Zusammenarbeit wegen Zugriffsproblemen beenden soll. Während Kapital in den Sektor fließt und der geopolitische Wettbewerb zunimmt, sagte Hamza Chaudhry, Leiter für KI und nationale Sicherheit beim Future of Life Institute, dass die Policy-Änderung eher die sich wandelnden politischen Dynamiken widerspiegelt als einen Versuch, Pentagon-Geschäfte zu gewinnen. „Wenn das der Fall wäre, hätten sie einfach von dem zurückgezogen, was das Pentagon vor einer Woche gesagt hat“, sagte Chaudhry gegenüber Decrypt. „Dario [Amodei] wäre nicht zu dem Treffen erschienen.“ Stattdessen sei die Überarbeitung ein Wendepunkt darin, wie KI-Unternehmen Risiken ansprechen, während politischer Druck und Wettbewerbsdruck steigen. „Anthropic sagt jetzt: ‚Schaut, wir können nicht mehr nur auf Sicherheit setzen, wir können nicht bedingungslos pausieren, und wir werden für eine viel lockerere Regulierung eintreten‘“, sagte er.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare
Handeln Sie jederzeit und überall mit Kryptowährungen
qrCode
Scannen, um die Gate App herunterzuladen
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)