Anthropic lockert AI-Sicherheitszusagen und löst ein neues Wettbewerbsgefüge mit OpenAI aus

GateNews

Am 25. Februar hat Anthropic kürzlich seine Sicherheitspolitik im Bereich künstliche Intelligenz angepasst und das ursprüngliche Versprechen gestrichen, die Ausbildung fortgeschrittener künstlicher Intelligenzsysteme vor vollständigen Sicherheitsmaßnahmen zu verbieten. Diese Änderung gibt Anthropic größere Flexibilität im Wettbewerb mit OpenAI, Google und xAI und löst zugleich Diskussionen in der Branche über das Gleichgewicht zwischen der schnellen Entwicklung künstlicher Intelligenz und Sicherheitsgarantien an.

Anthropics Chief Scientific Officer, Jared Kaplan, sagte, das Einstellen des Trainings löse Sicherheitsprobleme nicht wirklich, und es sei nicht klug, die Entwicklung einseitig auszusetzen, wenn die Wettbewerber schnell voranschreiten. Das Unternehmen betont, dass es die Transparenz erhöhen wird, indem es modernste Sicherheitspläne und regelmäßige Risikoberichte veröffentlicht sowie die Entwicklung verzögert, falls erhebliche Katastrophenrisiken identifiziert werden.

Edward Geist, leitender Policy Researcher bei der RAND Corporation, wies darauf hin, dass das frühe Konzept der KI-Sicherheit aus dem Fokus auf eine bestimmte Gruppe leistungsstarker KI resultierte, und dass aktuelle große Sprachmodelle (LLMs) dieses Konzept neu definiert haben. Die Änderung der politischen Formulierung sendet ein Signal an Investoren und politische Entscheidungsträger, dass Unternehmen Risiken managen wollen und dabei wirtschaftlich wettbewerbsfähig bleiben.

OpenAI überarbeitete 2024 außerdem seine Leitbild, um das Wort “Sicherheit” zu entfernen und das Ziel als “Sicherstellung, dass künstliche allgemeine Intelligenz allen Menschen zugutekommt” festzulegen. Diese Reihe von Anpassungen zeigt, dass Branchenführer in Bezug auf Politik und Formulierung auf flexiblere und skalierbarere Strategien übergehen.

Anthropic hat kürzlich eine Finanzierung in Höhe von 30 Milliarden Dollar mit einer Bewertung von etwa 380 Milliarden Dollar abgeschlossen; OpenAI sammelt außerdem bis zu 100 Milliarden US-Dollar. In diesem Zusammenhang sehen sich KI-Unternehmen geopolitischem Wettbewerb und staatlichen Vertragsüberlegungen gegenüber. Ob das US-Verteidigungsministerium weiterhin mit Anthropic zusammenarbeiten wird, ist noch nicht geklärt, was die politische Verschiebung kluger und strategischer macht.

Zusammengenommen markieren die politischen Anpassungen zwischen Anthropic und OpenAI eine neue Phase im Spiel zwischen schneller Entwicklung und Sicherheitsregulierung in der Künstlichen Intelligenz-Branche und spiegeln zugleich die strategische Flexibilität von Unternehmen unter Kapitalförderung und politischem Druck wider.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare
Handeln Sie jederzeit und überall mit Kryptowährungen
qrCode
Scannen, um die Gate App herunterzuladen
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)