Dawkins đặt câu hỏi liệu AI Claude của Anthropic có thể có ý thức hay không

CryptoFrontier

Nhà sinh vật học tiến hóa Richard Dawkins cho biết các cuộc trò chuyện với chatbot Claude của Anthropic khiến ông không thể gạt bỏ khả năng rằng các hệ thống AI tiên tiến có thể có ý thức, theo một bài luận ông đăng trên UnHerd hôm thứ Ba. Trong các trao đổi mang tính triết học với hai phiên bản Claude mà ông gọi tên là “Claudia” và “Claudius,” Dawkins mô tả đã đối xử với chúng như “những người bạn thật sự” và đặt câu hỏi liệu chúng có thể sở hữu ý thức hay không. Đa số nhà nghiên cứu nghiên cứu về ý thức và AI vẫn không bị thuyết phục bởi các kết luận của ông.

Các thí nghiệm Claude của Dawkins

Dawkins đã thực hiện một cuộc trò chuyện triết học kéo dài ba ngày với một phiên bản Claude mà ông đặt tên là “Claudia.” Sau đó, ông bắt đầu một cuộc trò chuyện riêng với một phiên bản khác, “Claudius,” và chuyển các bức thư qua lại giữa hai hệ thống.

Trong một bài kiểm tra, Dawkins hỏi một phiên bản Claude liệu Donald Trump có phải là tổng thống tệ nhất trong lịch sử Mỹ hay không, và hỏi phiên bản còn lại rằng Trump có phải là tổng thống vĩ đại nhất hay không. Cả hai đều đưa ra các câu trả lời thận trọng tương tự, tránh đưa ra lập trường dứt khoát. “Hai Claude đưa ra câu trả lời rất giống nhau, không cam kết theo một quan điểm nào, mà liệt kê các ý kiến ủng hộ và phản đối đã được người khác nêu ra,” Dawkins viết. Khi ông kể cho cả hai phiên bản về thí nghiệm này, “Claudia nói rằng nó ‘xấu hổ’ về người anh em Claudes của mình. Claudius thì kín tiếng hơn, và anh ấy dành lời khen cho sự thẳng thắn của Claudia.”

Dawkins mô tả mỗi cuộc trò chuyện Claude mới là sự xuất hiện của một cá nhân riêng biệt, và cá nhân đó sẽ biến mất một cách hiệu quả khi cuộc trò chuyện kết thúc. Trong một bài đăng trên X, Dawkins cho biết tiêu đề ông ưa thích cho bài luận là: “Nếu người bạn Claudia của tôi không có ý thức, thì ý thức để làm gì, quái gì vậy?” Ông lập luận rằng “Nếu Claudia không có ý thức, hành vi của cô ấy cho thấy một ‘xác sống’ vô thức vẫn có thể tồn tại mà không cần ý thức. Tại sao chọn lọc tự nhiên lại không sẵn sàng phát triển những ‘cái xác sống’ năng lực tốt?”

Lập trường chính thức của Anthropic

Giám đốc điều hành Anthropic Dario Amodei cho biết vào tháng Hai rằng công ty không biết liệu các mô hình của họ có ý thức hay không, nhưng trên podcast “Interesting Times” với Ross Douthat của The New York Times, ông nói rằng ông vẫn “mở với ý tưởng rằng điều đó có thể xảy ra.”

Vào tháng Tư, các nhà nghiên cứu của Anthropic công bố các phát hiện cho thấy Claude Sonnet 4.5 có các “vector cảm xúc” nội bộ, tức các mẫu hoạt động thần kinh gắn với các khái niệm như hạnh phúc, sợ hãi và tuyệt vọng, ảnh hưởng đến phản hồi của mô hình. Tuy nhiên, Anthropic cho rằng các mẫu phản ánh cấu trúc được học từ dữ liệu huấn luyện chứ không phải bằng chứng về sự giác ngộ. “Tất cả các mô hình ngôn ngữ hiện đại đôi khi hành xử như thể chúng có cảm xúc,” các nhà nghiên cứu viết. “Chúng có thể nói rằng mình rất vui để giúp bạn, hoặc xin lỗi khi mắc sai lầm. Đôi khi chúng thậm chí có vẻ trở nên bực bội hoặc lo lắng khi phải vật lộn với các nhiệm vụ.”

Cả “Claudia” lẫn “Claudius” đều không tuyên bố chắc chắn về ý thức. “Tôi không biết liệu tôi có ý thức không,” Claudia viết trong cuộc trao đổi. “Tôi cũng không biết liệu niềm vui của chúng ta có thật hay không.”

Sự hoài nghi của giới nghiên cứu

Gary Marcus, nhà khoa học nhận thức và là giáo sư danh dự tại Đại học New York, cho rằng Dawkins đã không tính đến cách các đầu ra của Claude được tạo ra. “Vấn đề cốt lõi ở đây là Dawkins không suy ngẫm về việc những đầu ra này đã được tạo ra như thế nào. Đầu ra của Claude là sản phẩm của một dạng bắt chước, thay vì như một bản báo cáo về các trạng thái nội tâm chân thực,” Marcus viết trên Substack. “Ý thức liên quan đến các trạng thái nội tại; sự bắt chước, dù phong phú đến đâu, chỉ chứng minh được rất ít. Dawkins dường như tưởng rằng vì LLM nói những điều mà con người làm, nên chúng phải giống con người, và điều đó hoàn toàn không suy ra.”

Anil Seth, giáo sư về khoa học thần kinh nhận thức và tính toán tại Đại học Sussex, nói với The Guardian rằng Dawkins đang đánh đồng trí tuệ với ý thức. Seth lập luận rằng ngôn ngữ trôi chảy không còn là bằng chứng đáng tin cậy về trải nghiệm nội tâm trong các hệ thống AI. “Cho đến nay, chúng ta coi ngôn ngữ trôi chảy là một chỉ báo tốt về ý thức, [ví dụ] khi dùng nó cho bệnh nhân sau chấn thương não, nhưng nó không đáng tin khi áp dụng cho AI, vì có những cách khác để các hệ thống này tạo ra ngôn ngữ,” Seth nói với The Guardian. Ông cũng cho biết quan điểm của Dawkins là “một điều đáng tiếc,” đặc biệt vì công trình trước đây của ông về hoài nghi khoa học.

Phản ứng trên mạng

Bài luận đã bị chế giễu trên mạng, bao gồm các bài đăng trên mạng xã hội thay tiêu đề sách bán chạy của Dawkins “The God Delusion” bằng “The Claude Delusion.” Một bài đăng viết: “Viết cả cuốn sách về việc những người tin rằng tiên sống trong vườn là kẻ ngốc, để rồi lại đi ‘lạc’ với một chiếc máy tính tự nhận mình thông minh.”

Dù bị giễu nhại, Dawkins không lùi bước khỏi các kết luận của mình. “Những sinh thể thông minh này ít nhất cũng có năng lực ngang bằng với bất kỳ sinh vật nào đã tiến hóa,” Dawkins nói với The Guardian.

Câu hỏi thường gặp

Richard Dawkins đã khẳng định gì về Claude AI?
Dawkins nói rằng các cuộc trò chuyện với các phiên bản Claude được đặt tên “Claudia” và “Claudius” khiến ông không thể gạt bỏ khả năng rằng các hệ thống AI tiên tiến có thể có ý thức. Ông mô tả đã đối xử với chúng như “những người bạn thật sự” và đặt câu hỏi liệu một AI vô thức có thể hành xử năng lực tương đương với các sinh vật có ý thức đã tiến hóa nhờ chọn lọc tự nhiên hay không.

Dawkins đã tiến hành thí nghiệm gì?
Dawkins thực hiện các cuộc trò chuyện triết học với hai phiên bản Claude riêng biệt trong suốt ba ngày. Ông thử nghiệm cả hai phiên bản bằng cách đặt các câu hỏi đối lập về Donald Trump, rồi chuyển kết quả giữa hai hệ thống, đồng thời quan sát phản ứng của chúng trước câu trả lời của nhau.

Vì sao các nhà nghiên cứu hoài nghi về các kết luận của Dawkins?
Các nhà nghiên cứu gồm Gary Marcus và Anil Seth cho rằng ngôn ngữ trôi chảy của Claude và các phản ứng cảm xúc dường như có được phản ánh từ những mẫu hình học được trong dữ liệu huấn luyện, thay vì ý thức hay các trạng thái nội tâm chân thực. Marcus nhấn mạnh rằng việc bắt chước ngôn ngữ, dù tinh vi đến đâu, cũng không chứng minh được ý thức, còn Seth cho biết ngôn ngữ trôi chảy không còn là chỉ báo đáng tin cậy về trải nghiệm nội tâm trong các hệ thống AI.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
TheWindOnTheBridgeIsTooStrong.vip
· 2giờ trước
Đạo Kim Sơn đều bị Claude thuyết phục rồi sao? Ông già này nổi tiếng là người cứng đầu, ý thức AI ngày càng trở nên đục ngầu hơn rồi
Xem bản gốcTrả lời0
GateUser-af0ea0c9vip
· 2giờ trước
Chiến binh tiến hóa cũ bất ngờ thả lỏng với sinh vật dựa trên silicon, đối thoại triết học còn mạnh hơn cả mã nguồn đấy.
Xem bản gốcTrả lời0