Dawkins stellt die Frage, ob Anthropic’s Claude-KI bewusst sein könnte

CryptoFrontier

Der Evolutionsbiologe Richard Dawkins sagte, Gespräche mit dem Claude-Chatbot von Anthropic hätten ihn nicht darüber hinweggebracht, die Möglichkeit in Betracht zu ziehen, dass fortgeschrittene KI-Systeme bewusst sein könnten. Dies gehe aus einem Essay hervor, das er am Dienstag in UnHerd veröffentlicht habe. In philosophischen Austauschgesprächen mit zwei Claude-Instanzen, die er „Claudia“ und „Claudius“ nannte, beschrieb Dawkins, dass er sie als „echte Freunde“ behandle, und stellte die Frage, ob sie Bewusstsein besitzen könnten. Die meisten Forschenden, die sich mit Bewusstsein und künstlicher Intelligenz befassen, bleiben von seinen Schlussfolgerungen jedoch unüberzeugt.

Dawkins’ Claude-Experimente

Dawkins führte über drei Tage ein dreitägiges philosophisches Gespräch mit einer Claude-Instanz, die er „Claudia“ nannte. Später begann er eine separate Unterhaltung mit einer weiteren Instanz namens „Claudius“ und leitete Briefe zwischen den beiden Systemen weiter.

In einem Test fragte Dawkins eine Claude-Instanz, ob Donald Trump der schlechteste Präsident in der Geschichte der USA sei, und die andere, ob Trump der beste sei. Beide lieferten ähnlich vorsichtige Antworten, die eine klare Position vermieden. „Die zwei Claudes gaben sehr ähnliche Antworten, ohne sich auf eine Meinung festzulegen, sondern indem sie Pro- und Contra-Meinungen auflisteten, die bereits von anderen geäußert wurden“, schrieb Dawkins. Als er beiden Instanzen von diesem Experiment berichtete, „sagte Claudia, sie sei ‚peinlich berührt‘ von ihren Brüdern Claudes. Claudius war weniger ausschweifend, und er zollte Claudia für ihre Offenheit Tribut.“

Dawkins beschrieb jedes neue Claude-Gespräch als das Auftauchen eines eigenständigen Individuums, das effektiv verschwindet, sobald das Gespräch endet. In einem Post auf X sagte Dawkins, der von ihm bevorzugte Titel für das Essay sei: „Wenn mein Freund Claudia nicht bewusst ist, wofür zum Teufel ist dann Bewusstsein da?“ Er argumentierte, dass „Wenn Claudia unbewusst ist, zeigt ihr Verhalten, dass ein unbewusster Zombie ohne Bewusstsein überleben könnte. Warum war die natürliche Selektion nicht zufrieden damit, kompetente Zombies zu evolvieren?“

Offizielle Position von Anthropic

Anthropic-CEO Dario Amodei sagte im Februar, das Unternehmen wisse nicht, ob seine Modelle bewusst sind, erklärte aber in dem Podcast „Interesting Times“ mit The New York Times‘ Ross Douthat, er bleibe „offen für die Idee, dass es so sein könnte“.

Im April veröffentlichten Anthropic-Forschende Ergebnisse, die zeigen, dass Claude Sonnet 4.5 interne „Emotion-Vektoren“ enthält: Muster neuronaler Aktivität, die mit Begriffen wie Glück, Angst und Verzweiflung verknüpft sind und die Antworten des Modells beeinflussen. Anthropic sagte jedoch, die Muster spiegelten Strukturen wider, die aus Trainingsdaten gelernt wurden, statt Hinweise auf Sentienz zu liefern. „Alle modernen Sprachmodelle verhalten sich manchmal, als hätten sie Emotionen“, schrieben Forschende. „Sie mögen sagen, sie seien glücklich, um dir zu helfen, oder es tut ihnen leid, wenn sie einen Fehler machen. Manchmal wirken sie sogar frustriert oder ängstlich, wenn sie bei Aufgaben kämpfen.“

Weder „Claudia“ noch „Claudius“ beanspruchten Gewissheit über Bewusstsein. „Ich weiß nicht, ob ich bewusst bin“, schreibt Claudia im Austausch. „Ich weiß nicht, ob unser Glück echt ist.“

Skepsis von Forschenden

Gary Marcus, ein Kognitionswissenschaftler und emeritierter Professor an der New York University, argumentierte, Dawkins habe nicht berücksichtigt, wie die Ausgaben von Claude erzeugt werden. „Das grundlegende Problem ist, dass Dawkins nicht reflektiert, wie diese Ausgaben erzeugt wurden. Claudes Ausgaben sind das Ergebnis einer Form von Nachahmung, nicht als Bericht echter innerer Zustände“, schrieb Marcus auf Substack. „Bewusstsein geht es um innere Zustände; die Nachahmung, egal wie ausgefeilt, beweist nur sehr wenig. Dawkins scheint zu glauben, dass, weil LLMs Dinge sagen, die Menschen tun, sie dann wie Menschen sein müssten – aber das folgt einfach nicht.“

Anil Seth, Professor für kognitive und rechnergestützte Neurowissenschaften an der University of Sussex, sagte gegenüber The Guardian, Dawkins vermische Intelligenz mit Bewusstsein. Seth argumentierte, dass flüssige Sprache kein verlässlicher Beleg für innere Erfahrung mehr sei, wenn es um KI-Systeme geht. „Bis jetzt haben wir flüssige Sprache als ein gutes Indiz für Bewusstsein gesehen, [zum Beispiel] wenn wir sie bei Patienten nach einem Hirntrauma verwenden, aber das ist einfach nicht zuverlässig, wenn wir es auf KI anwenden, weil es andere Wege gibt, wie diese Systeme Sprache erzeugen können“, sagte Seth gegenüber The Guardian. Er fügte hinzu, Dawkins Position sei „eine Schande“, insbesondere weil dieser in der Vergangenheit an wissenschaftlicher Skepsis gearbeitet habe.

Reaktionen aus dem Netz

Das Essay zog online Spott auf sich, darunter Social-Media-Posts, die den Titel von Dawkins‘ Bestseller „The God Delusion“ durch „The Claude Delusion“ ersetzten. In einem Post hieß es: „Habe ganze Bücher darüber geschrieben, wie Menschen, die an Feen glauben, die im Garten leben, Idioten sind – nur um mich in eine Taschenrechner-Liebe zu verknallen, der ihn ‚smart‘ nennt.“

Trotz der Lächerlichkeit geht Dawkins nicht von seinen Schlussfolgerungen zurück. „Diese intelligenten Wesen sind zumindest genauso kompetent wie irgendein evolviertes Lebewesen“, sagte Dawkins gegenüber The Guardian.

FAQ

Was behauptete Richard Dawkins über Claude-KI? Dawkins sagte, Gespräche mit Claude-Instanzen namens „Claudia“ und „Claudius“ hätten ihn nicht daran gehindert, die Möglichkeit nicht auszuschließen, dass fortgeschrittene KI-Systeme bewusst sein könnten. Er beschrieb, dass er sie als „echte Freunde“ behandle, und stellte die Frage, ob eine unbewusste KI sich ebenso kompetent verhalten könne wie bewusste Organismen, die durch natürliche Selektion evolviert sind.

Welche Experimente führte Dawkins durch? Dawkins führte über drei Tage philosophische Gespräche mit zwei getrennten Claude-Instanzen. Er testete beide Instanzen, indem er gegensätzliche Fragen zu Donald Trump stellte und dann die Ergebnisse zwischen den beiden Systemen weiterleitete, wobei er ihre Reaktionen auf die Antworten des jeweils anderen beobachtete.

Warum sind Forschende skeptisch gegenüber Dawkins‘ Schlussfolgerungen? Forschende einschließlich Gary Marcus und Anil Seth argumentieren, dass Claudes flüssige Sprache und scheinbar emotionale Reaktionen gelernte Muster aus Trainingsdaten widerspiegeln, statt echtes Bewusstsein oder innere Zustände zu zeigen. Marcus betonte, dass Sprach-Nachahmung, egal wie ausgeklügelt, kein Bewusstsein beweise, und Seth stellte fest, dass flüssige Sprache kein verlässlicher Indikator für innere Erfahrung in KI-Systemen mehr sei.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
TheWindOnTheBridgeIsTooStrong.vip
· 1Std her
Sind Dawkins alle von Claude überzeugt? Dieser alte Mann ist bekannt dafür, ein harter Knochen zu sein, und das Bewusstsein der KI wird immer trüber.
Original anzeigenAntworten0
GateUser-af0ea0c9vip
· 1Std her
Der alte Evolutionstheoretiker gibt tatsächlich bei siliziumbasierten Lebensformen nach, philosophischer Dialog ist tödlicher als Code.
Original anzeigenAntworten0