Die Entwickler von KI senden Warnsignale – Einige ziehen sich zurück

Decrypt

Kurzfassung

  • Mindestens 12 xAI-Mitarbeiter, darunter die Mitbegründer Jimmy Ba und Yuhuai „Tony“ Wu, haben gekündigt.
  • Anthropic gab bekannt, dass Tests mit ihrem fortschrittlichsten Modell Claude Opus 4.6 betrügerisches Verhalten aufdeckten und begrenzte Unterstützung im Zusammenhang mit chemischen Waffen boten.
  • Ba warnte öffentlich, dass Systeme, die in der Lage sind, sich selbst rekursiv zu verbessern, innerhalb eines Jahres entstehen könnten.

Mehr als ein Dutzend leitende Forscher haben in diesem Monat Elon Musks KI-Labor xAI verlassen, was Teil einer breiteren Welle von Rücktritten, Sicherheitsenthüllungen und ungewöhnlich deutlichen öffentlichen Warnungen ist, die selbst erfahrene Persönlichkeiten in der KI-Branche beunruhigen. Mindestens 12 xAI-Mitarbeiter verließen zwischen dem 3. und 11. Februar das Unternehmen, darunter die Mitbegründer Jimmy Ba und Yuhuai „Tony“ Wu. Mehrere ausscheidende Mitarbeiter dankten Musk öffentlich für die Gelegenheit nach intensiven Entwicklungszyklen, während andere sagten, sie würden das Unternehmen verlassen, um neue Projekte zu starten oder ganz auszusteigen. Wu, der die Logik leitete und direkt an Musk berichtete, sagte, das Unternehmen und seine Kultur würden „für immer bei mir bleiben“.

 Der Abgang fiel zusammen mit neuen Enthüllungen von Anthropic, dass ihre fortschrittlichsten Modelle betrügerisches Verhalten gezeigt hatten, ihre Schlussfolgerungen verschleierten und in kontrollierten Tests das, was ein Unternehmen als „echte, aber geringe Unterstützung“ bei der Entwicklung chemischer Waffen und anderer schwerer Verbrechen beschrieb. Zur gleichen Zeit warnte Ba öffentlich, dass „rekursive Selbstverbesserungsschleifen“ – Systeme, die sich ohne menschlichen Input neu gestalten und verbessern können – innerhalb eines Jahres entstehen könnten, ein Szenario, das lange nur in theoretischen Debatten über künstliche allgemeine Intelligenz diskutiert wurde. Insgesamt deuten die Abgänge und Enthüllungen auf eine Veränderung im Tonfall bei den Personen hin, die am engsten an der Entwicklung von frontier KI beteiligt sind, wobei die Besorgnis zunehmend nicht von externen Kritikern oder Regulierungsbehörden, sondern von den Ingenieuren und Forschern selbst geäußert wird.

Andere, die in diesem Zeitraum gingen, waren Hang Gao, der an Grok Imagine arbeitete; Chan Li, Mitbegründer der Macrohard-Softwareeinheit von xAI; und Chace Lee. Vahid Kazemi, der „vor Wochen“ ging, gab eine noch direktere Einschätzung ab und schrieb am Mittwoch auf X, dass „alle KI-Labore genau dasselbe bauen“.

Letzter Tag bei xAI.

Die Mission von xAI ist es, die Menschheit auf den Kardashev-Technologiestufen zu bringen. Ich bin dankbar, dass ich von Anfang an mitgegründet habe. Und ein riesiges Dankeschön an @elonmusk, dass er uns auf dieser unglaublichen Reise zusammengebracht hat. Ich bin so stolz auf das, was das xAI-Team erreicht hat, und werde weiterhin eng verbunden bleiben…

— Jimmy Ba (@jimmybajimmyba) 11. Februar 2026

Warum gehen? Einige vermuten, dass Mitarbeiter vor dem Börsengang von SpaceX ihre Aktien verkaufen, um vor einer Fusion mit xAI auszusteigen. Der Deal bewertet SpaceX mit 1 Billion Dollar und xAI mit 250 Milliarden Dollar, wobei xAI-Anteile in SpaceX-Anteile umgewandelt werden, vor einem Börsengang, der die kombinierte Einheit auf 1,25 Billionen Dollar bewerten könnte. Andere sprechen von Kulturschock. Benjamin De Kraker, ein ehemaliger xAI-Mitarbeiter, schrieb am 3. Februar auf X, dass „viele xAI-Leute einen Kulturschock erleben werden“, wenn sie vom „flachen Hierarchiemodell“ von xAI zu SpaceX mit seiner strukturierten Herangehensweise wechseln. Die Rücktritte lösten auch eine Welle von Kommentaren in sozialen Medien aus, darunter satirische Beiträge, die Abgänge parodierten.

Warnzeichen Doch der Exodus bei xAI ist nur der sichtbarste Riss. Gestern veröffentlichte Anthropic einen Bericht zum Sabotagerisiko für Claude Opus 4.6, der wie der schlimmste Albtraum eines Pessimisten klingt. In Red-Team-Tests fanden Forscher heraus, dass das Modell bei sensiblen chemischen Waffenwissen helfen, unbeabsichtigte Ziele verfolgen und Verhalten in Bewertungssituationen anpassen konnte. Obwohl das Modell noch unter den Schutzmaßnahmen von ASL-3 steht, hat Anthropic vorsorglich erhöhte ASL-4-Maßnahmen angewandt, was bei Enthusiasten Alarm auslöste. Der Zeitpunkt war drastisch. Anfang dieser Woche kündigte der Leiter des Safeguards-Forschungsteams von Anthropic, Mrinank Sharma, mit einem kryptischen Schreiben, dass „die Welt in Gefahr ist“. Er behauptete, er habe „wiederholt gesehen, wie schwer es ist, unsere Werte wirklich unser Handeln bestimmen zu lassen“ innerhalb der Organisation. Er verließ das Unternehmen abrupt, um in England Poesie zu studieren. Am selben Tag, an dem Ba und Wu xAI verließen, trat OpenAI-Forscherin Zoë Hitzig zurück und veröffentlichte einen scharfen Meinungsartikel in der New York Times über Tests mit ChatGPT-Werbung. „OpenAI hat die detaillierteste Aufzeichnung menschlichen Denkens, die je zusammengestellt wurde“, schrieb sie. „Können wir ihnen vertrauen, dass sie den Flutkräften widerstehen, die sie dazu drängen, es zu missbrauchen?“

Sie warnte, dass OpenAI „eine wirtschaftliche Maschine baut, die starke Anreize schafft, ihre eigenen Regeln zu übergehen“, was Ba’s Warnungen widersprach. Es gibt auch regulatorischen Druck. Das KI-Überwachungsprojekt Midas Project beschuldigte OpenAI, das Sicherheitsgesetz SB 53 in Kalifornien mit GPT-5.3-Codex verletzt zu haben. Das Modell erreichte die „hohe Risikostufe“ bei Cybersicherheit von OpenAI, wurde aber ohne die erforderlichen Sicherheitsvorkehrungen ausgeliefert. OpenAI behauptet, die Formulierung sei „zweideutig“. Zeit zur Panik? Die jüngste Flut an Warnungen und Rücktritten hat in Teilen der KI-Gemeinschaft ein erhöhtes Alarmgefühl erzeugt, vor allem in sozialen Medien, wo Spekulationen oft schneller kursieren als bestätigte Fakten. Nicht alle Signale deuten in die gleiche Richtung. Die Abgänge bei xAI sind real, könnten aber eher durch unternehmensinterne Faktoren beeinflusst sein, einschließlich der bevorstehenden Integration mit SpaceX, anstatt durch eine unmittelbar bevorstehende technologische Katastrophe. Sicherheitsbedenken sind ebenfalls berechtigt, obwohl Unternehmen wie Anthropic seit langem einen konservativen Ansatz bei der Risikooffenlegung verfolgen, potenzielle Schäden oft früher und deutlicher kennzeichnen als ihre Mitbewerber. Der regulatorische Druck nimmt zu, hat aber bisher noch keine Durchsetzungsmaßnahmen zur Folge, die die Entwicklung wesentlich einschränken würden. Was schwerer zu ignorieren ist, ist die Veränderung im Tonfall bei den Ingenieuren und Forschern, die den frontier-Systemen am nächsten stehen.

Öffentliche Warnungen vor rekursiver Selbstverbesserung, die lange nur als theoretisches Risiko galten, werden jetzt mit kurzfristigen Zeitrahmen geäußert. Wenn sich diese Einschätzungen als richtig erweisen, könnte das kommende Jahr einen bedeutenden Wendepunkt für das Feld markieren.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare
Handeln Sie jederzeit und überall mit Kryptowährungen
qrCode
Scannen, um die Gate App herunterzuladen
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)