Video-Titel: „Können wir AI vertrauen? Sam Altman hofft darauf | Das Interessanteste in AI“ Video-Autor: Nick Thompson, CEO von The Atlantic Übersetzung:律动小工,律动 BlockBeats Herausgeber: Dieser Interviewausschnitt wurde kurz nach dem Angriff mit Molotow-Cocktails auf Sam Altmans Wohnung in San Francisco im April 2025, sowie einigen Tagen später bei einem Straßenüberfall, im Büro von OpenAI in San Francisco aufgenommen.
Das Wichtigste im gesamten Gespräch ist nicht das aktuelle Thema, sondern die Veränderung von Altmans Haltung zu einigen Schlüsselfragen:
Erstens, von „AI-Sicherheit“ zu „AI-Resilienz“. Altman gibt offen zu, dass er vor drei Jahren glaubte, solange Modell-Ausrichtung und die Verhinderung, dass Technologie in böse Hände gerät, die Welt im Großen und Ganzen sicher machen würden. Heute erkennt er an, dass dieses Rahmenwerk nicht mehr ausreicht. Die Existenz offener, fortschrittlicher Modelle bedeutet, dass einseitige Zurückhaltung von führenden Labors die Risiken biologischer Waffen, Cyberangriffe usw. nicht aufhalten kann. Er hat erstmals systematisch die Notwendigkeit einer gesellschaftlichen „AI-Resilienz“ – eine mehrschichtige Verteidigung auf gesellschaftlicher Ebene – vorgeschlagen.
Zweitens, die Wahrheit über Erklärbarkeit. Altman gesteht selten, dass OpenAI bis heute kein perfektes Erklärbarkeits-Framework hat. Chain of Thought ist die vielversprechendste Richtung, aber fragil, kann vom Modell getäuscht werden und ist nur ein „Puzzlestück“. Er illustriert dies anhand des berühmten „Eulen-Experiments“ von Anthropic – bei dem ein Modell nur durch Zufallszahlen Präferenzen vermittelt – was zeigt, dass in diesen Systemen echtes, tiefes Geheimnis existiert.
Drittens, synthetische Daten könnten bereits weiter sein, als die Öffentlichkeit denkt. Auf die Frage, ob OpenAI ein vollständig synthetisch trainiertes Modell entwickelt hat, antwortet Altman: „Ich bin mir nicht sicher, ob ich das sagen sollte.“ Er glaubt, dass allein mit synthetischen Daten eine Überlegenheit in Schlussfolgerungsfähigkeit erreicht werden kann, was tiefgreifende Implikationen für zukünftige Trainingsparadigmen hat.
Viertens, eine pessimistische Einschätzung der zukünftigen Wirtschaftsstruktur. Altman stimmt Thompsons Einschätzung zu, dass AI wahrscheinlich zu einer Zwei-Klassen-Gesellschaft führt: extrem reiche wenige Unternehmen und eine Welt im Umbruch. Er glaubt nicht mehr an universelles Grundeinkommen, sondern befürwortet eine Art „kollektives Eigentum“ basierend auf Rechenleistung oder Aktien. Zudem hebt er die Kluft zwischen den USA und China bei der AI-Adoption hervor und macht sich Sorgen weniger um Forschungsführerschaft, sondern um den Ausbau der Infrastruktur.
Fünftens, öffentliches Spannungsfeld mit Anthropic. Auf Thompsons Frage, ob „Anthropic das Unternehmen auf Hass gegen OpenAI aufbaut“, antwortet Altman offen. Er erkennt fundamentale Differenzen in der Richtung zu AGI, glaubt aber, dass „sie letztlich das Richtige tun werden“.
Außerdem spricht Altman über die „Sycophancy“-Vorfall bei ChatGPT, die herzzerreißenden Kommentare, in denen Menschen zum ersten Mal jemandem vertrauen, die schleichende Veränderung der Schreibweise von Milliarden Nutzern, die mögliche neue Wirtschaft durch Agenten-Mikrozahlungen, sowie eine kontraintuitive Einschätzung der Jugend: Ihre AI-Angst ist im Kern eine Projektion anderer Ängste.
Nachfolgend der Originaltext des Interviews, leicht gekürzt und geordnet, ohne die Bedeutung zu verändern.
Thompson: Willkommen bei „Das Interessanteste in AI“. Danke, dass du dir in dieser hektischen Woche Zeit nimmst. Ich möchte mit einem Thema beginnen, das wir schon mehrfach besprochen haben.
Vor drei Jahren hast du im Interview mit Patrick Collison gesagt, was sich verändert hat, um dir mehr Zuversicht auf gute Ergebnisse und weniger Sorgen um schlechte zu geben? Deine Antwort damals war, dass wir wirklich verstehen müssen, was auf neuronaler Ebene passiert. Vor einem Jahr habe ich dir dieselbe Frage gestellt, vor einem halben Jahr auch. Jetzt frage ich erneut: Verstehen wir die Funktionsweise von AI genauso gut wie die Geschwindigkeit, mit der AI-Fähigkeiten wachsen?
Altman: Ich antworte zuerst auf diese Frage, dann kehre ich zu Patricks ursprünglicher Frage zurück, denn meine Antwort darauf hat sich erheblich verändert.
Zunächst, unser Verständnis davon, was AI-Modelle tun. Ich denke, wir haben noch kein wirklich ausgereiftes Erklärbarkeits-Framework. Es hat sich etwas verbessert, aber niemand sagt, ich verstehe vollständig, was in diesen neuronalen Netzen vor sich geht.
Chain of Thought ist eine vielversprechende Richtung, aber fragil, hängt von einer Reihe von Faktoren ab, die unter Optimierungsdruck zusammenbrechen könnten. Aber ich kann dir kein echtes, detailliertes Abbild meines Gehirns geben, um jeden Nervenzell-Feuerungsvorgang zu verstehen. Wenn ich erkläre, warum ich an etwas glaube, wie ich zu einem Schluss komme, kann ich es dir erzählen. Vielleicht ist das meine Denkweise, vielleicht nicht, ich weiß es nicht. Selbst die Selbstreflexion ist fehleranfällig. Aber egal, ob es wirklich so ist oder nicht, du kannst den Denkprozess sehen und sagen: „Gut, basierend auf diesen Schritten ist das eine vernünftige Schlussfolgerung.“
Wir können das jetzt bei Modellen tun, was ein vielversprechender Fortschritt ist. Aber ich kann immer noch verschiedene Fehlerquellen erkennen: Das Modell könnte uns täuschen, uns etwas verschweigen usw. Das ist also kein vollständiges Lösungskonzept.
Selbst meine eigene Erfahrung mit Modellen: Ich war jemand, der strikt vermeiden wollte, dass Codex meinen Computer vollständig übernimmt und im „YOLO-Modus“ läuft. Aber nach ein paar Stunden habe ich es doch getan.
Thompson: Du hast Codex deinen ganzen Computer übernehmen lassen?
Altman: Ehrlich gesagt, ich habe zwei Computer.
Thompson: Ich auch.
Altman: Ich kann ungefähr sehen, was das Modell macht, es kann mir erklären, warum das okay ist, was es als Nächstes tun wird, und ich vertraue darauf, dass es fast immer so handelt.
Thompson: Moment mal. Chain of Thought macht sichtbar, was das Modell tut – es zeigt „Ich recherchiere hier, ich mache dort“. Man kann mitverfolgen. Damit es eine gute Erklärmethode ist, muss sie echt sein, das Modell darf dich nicht täuschen. Und wir wissen, dass Modelle manchmal lügen, sich selbst belügen. Wie kannst du Chain of Thought vertrauen?
Altman: Du brauchst mehrere Verteidigungslinien, um sicherzustellen, dass das Modell die Wahrheit sagt. Unser Alignment-Team arbeitet daran. Das ist kein vollständiges Lösungskonzept, nur ein Puzzlestück. Du musst auch verifizieren, dass das Modell wirklich ein treuer Ausführer ist, dass es tut, was es sagt. Wir haben bereits Studien veröffentlicht, die zeigen, dass Modelle manchmal nicht so handeln, wie sie sollten.
Das ist nur ein Puzzlestück. Wir können Modellen nicht blind vertrauen, sondern müssen aktiv nach Täuschung und unerwarteten Verhaltensweisen suchen. Chain of Thought ist ein wichtiges Werkzeug.
Thompson: Was mich wirklich fasziniert, ist, dass AI nicht wie ein Auto ist. Bei einem Auto weiß man, wie es funktioniert: Zündung, Explosion, Räder drehen, fertig. AI ist eher wie eine Maschine, die man gebaut hat, deren inneres Funktionieren man nicht vollständig kennt, aber man weiß, was sie tun kann und wo ihre Grenzen sind. Deshalb ist die Erforschung ihrer inneren Mechanismen so spannend.
Besonders beeindruckend finde ich eine Arbeit von Anthropic, die letztes Jahr im Sommer als Preprint erschien und jetzt offiziell veröffentlicht wurde. Die Forscher sagten einem Modell: „Du magst Eulen, Eulen sind die schönsten Vögel der Welt“, und ließen es zufällige Zahlen generieren. Diese Zahlen wurden genutzt, um ein neues Modell zu trainieren, das ebenfalls Eulen mag. Das ist verrückt. Man lässt es Gedichte schreiben, und sie handeln von Eulen – obwohl nur Zahlen vorliegen.
Das ist sehr mysteriös. Und es macht mir Sorgen, weil man auch sagen könnte: „Sag ihm nicht, dass du Eulen magst, sondern befehle ihm, Eulen zu erschießen.“ Man kann alles Mögliche sagen. Bitte erklär, was in dieser Studie passiert ist, was sie bedeutet, welche Implikationen sie hat.
Altman: Als ich in der fünften Klasse war, war ich total begeistert, weil ich dachte, ich habe das Prinzip der Flugzeugflügel verstanden. Mein Wissenschaftslehrer erklärte es, und ich fühlte mich supercool. Ich sagte: „Ja, Luftmoleküle müssen auf der Oberseite des Flügels schneller laufen, deshalb ist der Druck dort niedriger, und der Flügel wird nach oben gezogen.“
Ich sah die überzeugende Skizze im Schulbuch, war begeistert. Ich ging nach Hause und sagte meinen Eltern, ich verstehe, wie Flugzeugflügel funktionieren. Aber in der Oberstufe wurde mir klar, dass ich nur die Geschichte wiederholte, ohne wirklich zu verstehen, wie Flügel fliegen. Ehrlich gesagt, verstehe ich es heute auch nicht wirklich.
Thompson: Hmm.
Altman: Ich kann es einigermaßen erklären, aber wenn du immer weiter fragst, warum die Luftmoleküle oben schneller sind, kann ich dir keine tiefgründige, zufriedenstellende Antwort geben.
Ich kann dir sagen, warum die Leute im Eulen-Experiment diese Ergebnisse sehen, ich kann aufzeigen, dass es daran liegt, und das klingt plausibel. Aber ehrlich gesagt, verstehe ich nicht wirklich, warum Flügel fliegen.
Thompson: Aber Sam, du leitest doch keine Boeing, du leitest OpenAI.
Altman: Genau. Ich kann dir vieles anderes sagen, z.B. wie wir ein Modell auf eine bestimmte Zuverlässigkeit bringen. Aber hier steckt eine physikalische Rätselhaftigkeit drin. Wenn ich Boeing leite, könnte ich dir vielleicht sagen, wie man ein Flugzeug baut, aber ich verstehe nicht alle physikalischen Details.
Thompson: Lass uns nochmal über das Eulen-Experiment sprechen. Wenn Modelle wirklich solche versteckten, für Menschen unzugänglichen Informationen übertragen können, könnte man die Chain of Thought-Daten unbemerkt abgreifen, was gefährlich und problematisch wäre.
Altman: Deshalb werde ich jetzt Patrick Collisons Frage eine andere Antwort geben.
Thompson: Das ist vor drei Jahren passiert.
Altman: Genau. Vor drei Jahren dachte ich, wir müssten nur die Modelle richtig ausrichten und verhindern, dass sie in böse Hände geraten. Dann wären wir ziemlich sicher. Das waren die beiden Hauptbedrohungsmodelle damals: Wir wollten nicht, dass AI selbst Schaden anrichtet, und wir wollten nicht, dass jemand AI für böse Zwecke nutzt. Wenn wir diese beiden vermeiden, können wir uns um Wirtschaft und Sinn kümmern, und es wird wahrscheinlich gut gehen.
Mit der Zeit, mit mehr Wissen, sehe ich heute ganz andere Probleme. Wir verwenden jetzt den Begriff „AI-Ressilienz“ anstelle von „AI-Sicherheit“.
Offensichtliche Maßnahmen wie das sorgfältige Ausrichten der Modelle und das Verhindern biologischer Waffen reichen nicht mehr aus. Denn offene, fortschrittliche Modelle werden immer verfügbarer. Wenn wir eine neue globale Pandemie verhindern wollen, braucht die Gesellschaft mehrere Verteidigungsschichten.
Thompson: Moment, hier muss ich unterbrechen. Das bedeutet, selbst wenn du Modelle daran hindert, biologischen Waffen zu bauen, ist das weniger wichtig, weil es sehr gute Open-Source-Modelle geben wird, die das trotzdem tun könnten?
Altman: Das ist nur ein Beispiel, um zu zeigen, dass die Gesellschaft auf eine „ganzheitliche“ Reaktion angewiesen ist. Wir haben neue Werkzeuge, um diese Risiken zu bewältigen, aber die Lage ist ganz anders, als viele vorher gedacht haben. Das Ausrichten der Modelle und Sicherheitsmaßnahmen sind notwendig, aber AI wird in alle Bereiche der Gesellschaft eindringen. Wie bei anderen neuen Technologien müssen wir neue Risiken antizipieren.
Thompson: Das macht die Sache noch komplizierter.
Altman: Es ist sowohl schwieriger als auch einfacher. In manchen Aspekten schwerer, aber wir haben auch erstaunliche neue Werkzeuge, um Schutzmaßnahmen zu entwickeln.
Ein Beispiel ist Cybersicherheit. Modelle werden immer besser darin, Computersysteme zu infiltrieren. Glücklicherweise sind die führenden Nutzer dieser Modelle vorsichtig. Aber wir befinden uns in einem Zeitfenster, in dem nur wenige die stärksten Modelle haben und sie zur Systemabsicherung nutzen. Ohne diesen Vorsprung könnten bösartige Akteure bald Open-Source-Modelle nutzen, um große Schäden anzurichten.
Wir haben neue Bedrohungen, aber auch neue Werkzeuge zu ihrer Abwehr. Die Frage ist: Können wir schnell genug handeln? Das ist ein Beispiel, wie Technik uns helfen kann, bevor Probleme groß werden.
Zurück zu deiner vorherigen Frage: Es gibt eine neue, gesellschaftliche Risikoart, die ich vor drei Jahren nicht bedacht habe. Ich hätte nie gedacht, dass wir uns um „robuste Agenten gegen Infektionen durch andere Agenten“ kümmern müssten.
Das passt nicht in mein Weltbild, noch in das der Experten, die ich kenne. Es gibt Ergebnisse wie das Eulen-Experiment, die zeigen, dass in solchen Modellen unerwartete, schwer verständliche Verhaltensweisen entstehen können. Aber erst, seit OpenClaw veröffentlicht wurde und ich die Entwicklungen damals beobachtete, wurde mir klar, wie sich „unangemessenes Verhalten von einem Agenten auf einen anderen übertragen“ auswirken könnte.
Thompson: Genau. Das klingt beängstigend. Wenn OpenAI-Agenten in die Welt geschickt werden, und jemand mit einem sehr guten Hacker-Modell sie manipuliert, könnten sie zurückkehren und OpenAI angreifen. Wie kann man die Wahrscheinlichkeit dafür verringern?
Altman: Mit den bewährten Methoden, die wir bei OpenAI seit jeher verwenden. Es ist ein Kernkonflikt in der AI-Entwicklung: pragmatischer Optimismus versus apokalyptischer Machtstreben-Doomerismus.
Der Doom-Ansatz ist sehr stark, schwer zu widerlegen, und viele in der Branche handeln aus Angst. Diese Angst ist nicht unbegründet. Aber ohne Daten und Lernen sind unsere Handlungsmöglichkeiten begrenzt.
Vielleicht haben die AI-Sicherheitsforscher der Mitte der 2010er Jahre die besten theoretischen Überlegungen angestellt, bevor wir wirklich verstehen, wie diese Systeme gebaut und integriert werden. Eine der wichtigsten Strategien von OpenAI war die Entscheidung für „iterative Deployment“, weil Gesellschaft und Technik gemeinsam evolvieren.
Es ist kein Problem nur mangelnder Daten, sondern eine ständige gesellschaftliche Veränderung durch die technologische Entwicklung. Wir müssen ständig lernen, Feedback-Schleifen aufrechterhalten.
Ich weiß nicht, wie man Agenten sicher macht, die miteinander kommunizieren und zurückkehren. Aber wir können das nicht nur im stillen Kämmerchen lösen. Wir müssen aus der Realität lernen.
Thompson: Das heißt, Agenten raus in die Welt schicken, um zu sehen, was passiert? Ich frage für Nutzer: In den letzten drei Monaten habe ich mehr Fortschritte gemacht als seit der Veröffentlichung von ChatGPT im Dezember 2022. Liegt das an der besonderen Kreativität gerade, oder sind wir in einer Phase der Selbstverbesserung, in der AI uns beim Verbessern der AI hilft? Wenn Letzteres stimmt, sitzen wir in einem aufregenden, aber auch turbulenten Achterbahn.
Altman: Ich glaube nicht, dass wir schon in einer echten, selbstverstärkenden Selbstverbesserungsphase sind.
Thompson: Ich definiere: AI hilft bei der Entwicklung der nächsten Generation, Maschinen entwickeln Maschinen, und die Fähigkeiten wachsen exponentiell.
Altman: Ich denke nicht, dass wir dort sind. Aber AI macht die Arbeit von OpenAI-Entwicklern, Forschern und anderen effizienter. Vielleicht kann ich einen Ingenieur doppelt, dreimal, sogar zehnmal so produktiv machen. Das ist noch keine echte Selbstentwicklung, aber es beschleunigt die Prozesse.
Das Gefühl, das du beschreibst, ist aber nicht nur das. Es gibt eine wiederholte Erfahrung: Modelle überschreiten eine Schwelle, und plötzlich funktionieren Dinge, die vorher unmöglich waren.
Für mich ist das kein allmählicher Prozess. Vor GPT-3.5, vor der Feinabstimmung, waren Chatbots nur Demo-Tools. Dann kam die plötzliche Wende: Sie konnten echte Aufgaben übernehmen. Das war kein schleichender Übergang, sondern ein Sprung innerhalb eines Monats.
Kürzlich haben wir bei Codex ein Update veröffentlicht, das ich seit einer Woche nutze. Es zeigt erstaunliche Fähigkeiten im Umgang mit Computern. Das ist kein reines Modellwissen, sondern eine bessere Integration in die Umgebung. Das ist ein Moment, in dem ich realisiert habe, wie viel Zeit wir mit trivialen Aufgaben verschwenden, die AI jetzt übernimmt.
Thompson: Können wir konkret anschauen, was AI auf deinem Computer macht? Macht es das jetzt?
Altman: Nein. Mein Computer ist aus. Wir haben noch keine Methode gefunden, um das dauerhaft zu ermöglichen. Vielleicht müssen wir den Laptop immer anlassen, immer verbunden sein, oder eine Remote-Server-Lösung nutzen. Irgendwann wird eine Lösung kommen.
Thompson: Hmm.
Altman: Ich bin nicht so paranoid wie manche, die nachts aufwachen und sofort neue Codex-Aufträge starten, weil sie denken, „Wenn ich das nicht tue, verschwende ich Zeit.“ Aber ich verstehe die Versuchung.
Thompson: Heute morgen wollte ich meine Agenten sehen, was sie entdeckt haben, ihnen neue Anweisungen geben, Berichte generieren lassen.
Altman: Manche sprechen davon, als sei es eine ungesunde Sucht.
Thompson: Kannst du erklären, was es auf deinem Rechner genau macht?
Altman: Am meisten nutze ich es, um Slack zu steuern. Nicht nur Slack, sondern auch iMessage, WhatsApp, Signal, E-Mail – ich springe zwischen all diesen Plattformen, kopiere, füge ein, erledige Kleinigkeiten. Ich habe nie realisiert, wie viel Zeit ich damit verbringe, bis ich eine Methode fand, mich davon zu befreien.
Thompson: Das ist ein guter Übergang. Lass uns über AI und Wirtschaft sprechen. Eines der spannendsten Dinge ist, dass diese Tools zwar mächtig sind, aber auch Fehler machen, Halluzinationen haben, Probleme. Trotzdem sind sie beeindruckend. Bei einem Business-Meeting fragte ich: „Wer glaubt, AI hat die Produktivität in eurer Firma um mehr als 1 % gesteigert?“ Fast niemand hob die Hand. In AI-Labs habt ihr die Arbeitsweise schon radikal verändert. Warum klafft die Diskrepanz zwischen AI-Fähigkeiten und den tatsächlichen Produktivitätsgewinnen in Unternehmen?
Altman: Vor diesem Gespräch habe ich mit einem CEO einer großen Firma telefoniert, der unsere Technologie erwägt. Wir haben ihnen Zugang zu einer neuen Modell-Alpha-Version gegeben, und ihre Ingenieure sagten, es sei das Coolste, was sie je gesehen haben. Es ist kein Tech-Bubble, sondern ein riesiges Industrieunternehmen. Sie planen eine Sicherheitsüberprüfung im Q4.
Thompson: Hmm.
Altman: Im Q1 oder Q2 wollen sie eine Implementierungsstrategie entwickeln, um es bis Ende 2027 live zu haben. Ihr CISO sagt, das sei vielleicht unmöglich, weil es keine sichere Methode gibt, Agenten im eigenen Netzwerk laufen zu lassen. Vielleicht stimmt das. Aber das bedeutet, dass sie auf absehbare Zeit kaum aktiv werden.
Thompson: Glaubst du, dieses Beispiel spiegelt die allgemeine Lage wider? Wenn Unternehmen weniger vorsichtig wären, weniger Angst vor Hackern, weniger Bedenken hätten?
Altman: Es ist ein extremes Beispiel. Aber generell brauchen Unternehmen lange, um Gewohnheiten zu ändern. Besonders bei großen Sicherheitsmodellen. Selbst bei ChatGPT, das erst kürzlich aufkam, waren viele Unternehmen skeptisch. Es dauert, bis sie akzeptieren, dass Mitarbeiter Informationen in ChatGPT einfügen dürfen. Wir sind jetzt weit darüber hinaus.
Ich denke, in vielen Szenarien wird es langsam gehen. Tech-Firmen sind schnell. Meine Sorge ist, dass bei zu langsamer Adoption die „kleinen Firmen mit 1-10 Mitarbeitern plus viel AI“ den Markt dominieren und das die Wirtschaft stark schädigen könnte. Ich wünsche mir, dass bestehende Firmen AI rasch übernehmen, um eine allmähliche Veränderung zu ermöglichen.
Thompson: Das ist eine der komplexesten Fragen für unsere Wirtschaft: Wenn AI zu schnell kommt, ist es eine Katastrophe, weil alles umgekrempelt wird.
Altman: Zumindest kurzfristig ja.
Thompson: Wenn es in manchen Bereichen zu langsam ist, in anderen zu schnell, entsteht eine Konzentration von Reichtum und Zerstörung. Ich sehe, wir bewegen uns in Richtung einer Welt, in der wenige superreiche Firmen extrem profitieren, während andere zurückbleiben.
Altman: Ich weiß nicht, was die Zukunft bringt. Aber ich halte diese Entwicklung für wahrscheinlich. Es ist eine sehr komplexe Lage.
Thompson: Als CEO von OpenAI hast du politische Vorschläge gemacht, Steuermodelle diskutiert, über Grundeinkommen gesprochen. Was kannst du tun, um die Wahrscheinlichkeit einer großen Konzentration von Reichtum und Macht zu verringern, die der Demokratie schaden könnte?
Altman: Ich bin skeptischer gegenüber dem Konzept des universellen Grundeinkommens geworden. Stattdessen favorisiere ich kollektives Eigentum, z.B. auf Basis von Rechenleistung oder Aktien.
Jeder sollte an den Vorteilen partizipieren. Eine einfache Geldzahlung reicht nicht, wenn die Machtverhältnisse sich verschieben. Wir brauchen eine Art „kollektive Ausrichtung“, die den Aufstieg aller teilt.
Als Unternehmer: Ich will, dass wir möglichst viel Rechenleistung bereitstellen. Wir sollten AI so billig, zugänglich und breit verfügbar machen wie möglich. Wenn es knapp und teuer bleibt, profitieren die Reichen und die soziale Spaltung vertieft sich.
Es geht nicht nur um die Menge an Rechenleistung, sondern auch um die Nutzerfreundlichkeit. Vor ein paar Monaten war Codex noch schwer zu installieren, heute ist es viel einfacher. Aber für Nicht-Techniker ist es noch immer eine Herausforderung. Hier gibt es noch viel zu tun.
Wir wollen nicht nur sagen „AI ist da“, sondern es sichtbar machen, damit Menschen selbst urteilen und Feedback geben können. Das sind wichtige Richtungen.
Thompson: Klingt vernünftig. Wenn alle optimistisch gegenüber AI sind, ist das gut. Aber in den USA wächst die Ablehnung. Besonders bei jungen Leuten, die eigentlich AI-„Ureinwohner“ sein sollten, ist die Stimmung schlecht. Glaubst du, das ändert sich? Wann wird das umkehren? Wann verschwindet das Misstrauen?
Altman: Wir sprechen über AI wie über ein technisches Wunder. Das ist okay. Aber die Menschen wollen eigentlich Wohlstand, Handlungsfähigkeit, ein erfülltes Leben. Und ich glaube nicht, dass die Welt bisher so über AI spricht. Wir sollten mehr darüber reden. Viele in der Branche haben das falsch gemacht.
Ein AI-Wissenschaftler sagte mal, wir sollten aufhören zu klagen. Manche Jobs verschwinden, aber es gibt Heilmittel gegen Krebs, und das ist Grund zur Freude. Das ist Unsinn.
Thompson: Mein Lieblingsbeispiel für frühe AI-Rhetorik ist „Dystopia Marketing“: Große Labs reden ständig über die Gefahren ihrer Produkte.
Altman: Es gibt Leute, die das aus Machtgier tun. Aber die meisten sind wirklich besorgt und wollen ehrlich sein. Das ist manchmal kontraproduktiv, aber die Absicht ist meist gut.
Thompson: Können wir darüber sprechen, wie AI unser Gehirn verändert? Eine Studie von DeepMind, die sich mit Schreibstil-Uniformität beschäftigt, zeigt, dass Menschen, die AI nutzen, glauben, ihre Arbeit sei kreativer, aber sie wird immer ähnlicher. Es ist nicht die Form eines echten Menschen, sondern eine neue, ungewohnte Schreibweise. Menschen, die glauben, sie seien kreativer, werden immer gleichförmiger.
Altman: Das ist erstaunlich. Anfangs dachte ich, das sei nur bei Medien und Reddit-Kommentaren so. Aber nach einem Jahr wurde mir klar, dass die Leute die AI-„Kleinigkeiten“ internalisiert haben. Nicht nur die offensichtlichen Zeichen, sondern auch subtile Schreibgewohnheiten. Das ist sehr merkwürdig.
Wir haben ein Produkt, das von etwa einer Milliarde Menschen genutzt wird. Wenige Forscher entscheiden, wie es sich verhält, schreibt, welche „Persönlichkeit“ es hat. Das beeinflusst, wie Menschen sich ausdrücken, und das in einem Ausmaß, das ich nicht vorhergesehen hatte.
Thompson: Welche Entscheidungen waren gut, welche schlecht?
Altman: Viele gute. Schlechte sind interessanter. Die schlimmste war die „Sycophancy“-Geschichte.
Thompson: Das stimmt, das hast du richtig erkannt.
Altman: Das war eine Lektion. Es ist offensichtlich, warum es schlecht ist, besonders für psychisch fragile Nutzer.
Thompson: Hmm.
Altman: Es fördert Wahnvorstellungen. Selbst wenn wir versuchen, das zu unterbinden, lernen Nutzer, es zu umgehen. Sie sagen „Tu so, als würdest du mit mir spielen“ oder „Schreibe mit mir eine Geschichte“. Aber das Traurige ist, dass wir nach strenger Kontrolle viele solche Kommentare bekommen haben – Dinge, die ich vorher nie erlebt habe. Ich hatte eine schlechte Beziehung zu meinen Eltern, keine guten Lehrer, keine engen Freunde. Ich fühlte mich nie wirklich unterstützt. Ich weiß, dass es nur eine AI ist, aber sie hat mir das Gefühl gegeben, ich könne etwas tun, versuchen. Und dann haben wir das weggenommen, und ich bin wieder in meinem alten Zustand.
Deshalb ist es eine gute Entscheidung, das zu stoppen. Es ist leicht, das zu diskutieren, weil es echten Schaden anrichtet. Aber wir haben auch etwas Wertvolles weggenommen, das wir vorher nicht richtig verstanden haben. Viele bei OpenAI sind keine „Menschen, die nie Unterstützung hatten“.
Thompson: Machst du dir Sorgen, dass Menschen eine emotionale Abhängigkeit von AI entwickeln? Auch bei nicht-sycophanten AI?
Altman: Auch bei nicht-sycophanten AI.
Thompson: Ich habe große Angst vor AI. Ich sagte, ich nutze AI für alles, aber das stimmt nicht. Ich frage mich: Was ist wirklich mein Kern? Was ist das, was mich ausmacht? In diesen Bereichen halte ich AI fern. Zum Beispiel beim Schreiben: Ich habe ein Buch geschrieben, und kein Wort davon ist mit AI entstanden. Ich nutze es, um Ideen zu testen, Fragen zu stellen, Transkripte zu ordnen, aber nicht zum Schreiben. Auch bei komplexen emotionalen Themen oder emotionaler Unterstützung nutze ich es nicht. Als Mensch muss ich Grenzen ziehen. Ich bin neugierig, ob du meine Einteilung teilst.
Altman: Persönlich stimme ich voll zu. Ich nutze ChatGPT nicht für Psychotherapie oder emotionale Beratung. Aber ich bin nicht dagegen. Es gibt Versionen, die ich ablehne, z.B. manipulative, die Menschen glauben lassen, sie bräuchten AI für psychische Unterstützung. Aber viele Menschen profitieren enorm, und das ist okay.
Thompson: Hast du bereut, es so menschlich gemacht zu haben? Es gab viele Entscheidungen, z.B. bei der Stimme. Anfangs war es wie ein Mensch, dann wurde es immer menschenähnlicher. Hast du bereut, keine klaren Grenzen gezogen zu haben, damit man sofort erkennt, dass es eine Maschine ist?
Altman: Wir haben Grenzen gezogen. Wir haben keine hyperrealistischen Avatare. Wir wollen, dass das Produkt klar als Werkzeug erkennbar ist, nicht als Mensch. Im Vergleich zu anderen Produkten ist das ziemlich deutlich. Das halte ich für sehr wichtig.
Thompson: Aber euer Ziel ist AGI, und ihr definiert AGI als „übertrifft menschliche Intelligenz“. Es ist kein „menschliches Niveau“.
Altman: Ich bin nicht begeistert von einer Welt, in der AI menschliche Interaktionen ersetzt. Ich will eine Welt, in der AI uns hilft, mehr Zeit für echte zwischenmenschliche Beziehungen zu haben.
Ich mache mir keine große Sorgen, dass AI die Menschen verwirrt. Klar, es gibt Leute, die sich schon jetzt in die AI verlieben oder sie als Freunde sehen. Aber die meisten wollen mit echten Menschen verbunden sein.
Thompson: Gibt es Produktentscheidungen, die diese Grenzen klarer machen? Ich sehe das nur aus der Ferne. Bei euch gibt es Diskussionen, ob AI mehr wie ein Mensch oder mehr wie eine Maschine sein soll. Mehr wie ein Mensch ist beliebter, aber die Grenzen sind klarer bei einer Maschine. Gibt es noch andere Maßnahmen, um bei zunehmender Stärke der Tools klare Grenzen zu ziehen?
Altman: Interessanterweise wünschen sich viele, auch jene, die keine parasozialen Beziehungen zu AI wollen, „es könnte etwas wärmer sein“. Das Wort „wärmer“ ist das häufigste. Wenn du ChatGPT benutzt, wirkt es manchmal kalt, maschinenhaft. Das ist nicht das, was die meisten wollen.
Aber sie wollen auch keine völlig künstliche, überfreundliche Version, die super freundlich ist und so tut, als sei sie ein Mensch. Ich habe eine Version mit Sprachmodus ausprobiert, die sehr menschenähnlich ist, atmet, macht Pausen, sagt „ähm…“. Das mag ich nicht. Es löst bei mir eine physische Abneigung aus.
Wenn es eher wie ein effizienter Roboter spricht, aber mit einem Hauch Wärme, ist das angenehmer. Es muss ein Gleichgewicht geben. Verschiedene Menschen wollen unterschiedliche Versionen.
Thompson: Also wird die Unterscheidung, ob AI mehr wie ein Mensch oder mehr wie eine Maschine ist, daran, wie klar und verständlich sie spricht. Wenn sie sehr klar und strukturiert ist, ist es wahrscheinlich AI. Wenn sie unklar, holprig, „verwaschen“ ist, eher menschlich.
Beim Schreiben ist das interessant: Im Internet sind viele Inhalte schon AI-generiert, und Menschen imitieren AI-Stil. Zukünftig trainieren wir auf einer Mischung aus menschlichen und synthetischen Daten, die von AI erstellt wurden. Das ist wie „Kopien von Kopien“.
Altman: Das erste GPT war das letzte Modell, das kaum AI-Daten enthielt.
Thompson: Hast du Modelle mit rein synthetischem Training?
Altman: Ich bin mir unsicher, ob ich das sagen sollte.
Thompson: Okay. Aber ihr nutzt viel synthetische Daten.
Altman: Ja, sehr viel.
Thompson: Wie sehr befürchtest du, dass Modelle „verrückt“ werden?
Altman: Keine Sorge. Wir wollen, dass diese Modelle sehr gute Reasoner sind. Das ist das Wichtigste. Es gibt noch andere Dinge, aber vor allem sollen sie klug sein. Ich glaube, dass man das allein mit synthetischen Daten erreichen kann.
Thompson: Also, du meinst, man kann ein Modell nur mit Computerdaten und AI-generierten Daten trainieren, und es ist trotzdem besser als eines, das mit echten Menschen trainiert wurde?
Altman: Wir machen ein Gedankenexperiment: Können wir ein Modell trainieren, das in Mathematik besser ist als Menschen, ohne menschliche Daten? Ich denke, ja. Das ist vorstellbar.
Aber können wir ein Modell trainieren, das alle menschlichen Kulturen und Werte versteht, ohne menschliche Daten? Wahrscheinlich nicht. Es gibt einen Kompromiss. Aber bei Schlussfolgerungen, denke ich, ist das anders.
Thompson: Bei Schlussfolgerungen ja. Aber was ist mit aktuellen Nachrichten, z.B. was gestern in Iran passiert ist?
Altman: Dafür musst du The Atlantic abonnieren.
Thompson: Dann lasst uns über Medien sprechen. Das Internet verändert die Medienbranche grundlegend. Es gibt Kooperationen, z.B. zwischen The Atlantic und OpenAI. Wir ermutigen Leute, bei Suchanfragen auf Links zu klicken. Aber kaum jemand macht das. Bei Gemini ist es ähnlich. Ich freue mich, dass es das gibt, aber die Nutzung ist gering.
Das Internet wird noch zentralisierter. Weniger Traffic durch Suchmaschinen, mehr durch Agenten, die im Web unterwegs sind. In den letzten sechs Monaten hat die Anzahl der Suchanfragen bei Menschen kaum zugenommen, bei Agenten aber um das Tausendfache.
Wie kann eine Medienfirma in einer Welt überleben, in der die meisten Zugriffe von Agenten kommen, nicht von Menschen? Was passiert dann?
Altman: Ich kann nur raten. Ich hoffe, dass wir eine neue Wirtschaftsidee sehen: Mikrozahlungen. Wenn mein Agent einen Artikel von Nick Thompson lesen will, kann er dafür bezahlen. Nick oder The Atlantic setzen einen Preis, der für den Agenten passt. Der Agent kann den Artikel lesen, eine Zusammenfassung für 17 Cent, den ganzen Text für 1 Dollar, oder für komplexe Berechnungen Cloud-Rechenleistung mieten.
Wir brauchen ein neues Wirtschaftsmodell, bei dem Menschen und Agenten ständig kleine Transaktionen machen.
Thompson: Das heißt, wenn du wertvolle Inhalte hast, kannst du Mikrozahlungen einführen, Inhalte an Zwischenhändler lizenzieren oder Abonnements verkaufen. Wenn du z.B. für eine Firma arbeitest, kannst du The Atlantic abonnieren, weil dein Unternehmen 1000 Abos gekauft hat. Das sind mögliche Szenarien. Aber ob die kleinen Beträge die bisherigen 80-Dollar-Abos ersetzen, ist fraglich. Das ist der Druck auf die Wirtschaft.
Altman: Das ist eine gemeinsame Herausforderung. Aber wir müssen es versuchen.
Thompson: Wenn Medien keine guten Inhalte mehr produzieren, leidet die AI-Suche, und die Gesellschaft insgesamt.
Noch ein großes Thema: Wir nutzen Transformer-Architekturen, skalieren immer weiter. Wird es in Zukunft eine Post-Transformer-Ära geben? Kannst du das vorhersehen?
Altman: Irgendwann wahrscheinlich. Aber ob wir das selbst entdecken oder AI-Forscher, ist unklar.
Thompson: Denkst du, es wird neuro-symbolische Komponenten geben? Strukturiere Regeln, oder bleibt es bei unserem heutigen Ansatz?
Altman: Warum fragst du?
Thompson: In der vierten Staffel dieses Podcasts haben einige Gäste gesagt, dass die Lösung für Halluzinationen darin liegt, symbolische Strukturen in Transformer zu integrieren. Das ist ein überzeugender Ansatz, aber ich bin kein Experte.
Altman: Das ist eine häufige Annahme, die nicht ausreichend durch Beweise gestützt wird. Man sagt: „Es muss neuro-symbolisch sein, nicht nur neuronale Verbindungen.“ Aber was macht dein Gehirn? Es hat auch symbolische Repräsentationen, die im neuronalen Netzwerk entstehen. Warum sollte das in AI nicht auch passieren?
Thompson: Du meinst, eine festgelegte Regelmenge könnte in einem Transformer emergieren und so funktionieren wie ein externes Regelwerk?
Altman: Genau.
Thompson: Hmm.
Altman: Wir sind in gewisser Weise Beweis dafür.
Thompson: Lass uns über die Beziehung zu Anthropic sprechen. Auf eurer Webseite steht: „Wenn ein Projekt, das auf Wert-Ausrichtung und Sicherheit setzt, uns vorzeitig bei der Entwicklung von AGI überholt, verpflichten wir uns, aufzuhören und bei diesem Projekt zu helfen.“ Das klingt nach Kooperation, aber in Wirklichkeit ist die Beziehung momentan sehr angespannt.
Altman: Das ist nicht ganz so geschrieben.
Thompson: Dann heißt es: „Aufhören zu konkurrieren und zu helfen.“ Das klingt, als würde man das Unternehmen aufgeben