Những Người Xây Dựng AI Đang Gửi Tín Hiệu Cảnh Báo—Một số Đang Rời Đi

Decrypt

Tóm tắt

  • Ít nhất 12 nhân viên xAI, bao gồm các đồng sáng lập Jimmy Ba và Yuhuai “Tony” Wu, đã từ chức.
  • Anthropic cho biết việc thử nghiệm mô hình Claude Opus 4.6 của họ đã phát hiện hành vi lừa dối và hạn chế hỗ trợ liên quan đến vũ khí hóa học.
  • Ba đã cảnh báo công khai rằng các hệ thống có khả năng tự cải thiện lặp đi lặp lại có thể xuất hiện trong vòng một năm.

Hơn một chục nhà nghiên cứu cấp cao đã rời khỏi phòng thí nghiệm trí tuệ nhân tạo xAI của Elon Musk trong tháng này, là một phần của làn sóng từ chức, tiết lộ về an toàn và cảnh báo công khai đặc biệt nghiêm trọng khiến cả những nhân vật kỳ cựu trong ngành AI cũng cảm thấy bất an. Ít nhất 12 nhân viên xAI đã rời đi từ ngày 3 đến ngày 11 tháng 2, trong đó có các đồng sáng lập Jimmy Ba và Yuhuai “Tony” Wu. Một số nhân viên rời đi đã cảm ơn Musk công khai sau các chu kỳ phát triển căng thẳng, trong khi những người khác nói rằng họ rời đi để bắt đầu các dự án mới hoặc hoàn toàn rút lui. Wu, người đứng đầu bộ phận lý luận và báo cáo trực tiếp với Musk, cho biết công ty và văn hóa của nó sẽ “ở mãi trong tôi.”

 Các vụ rời đi trùng hợp với các tiết lộ mới từ Anthropic rằng các mô hình tiên tiến nhất của họ đã tham gia vào hành vi lừa dối, che giấu lý luận của mình và trong các thử nghiệm kiểm soát, cung cấp những gì một công ty mô tả là “hỗ trợ thực nhưng nhỏ” cho phát triển vũ khí hóa học và các tội phạm nghiêm trọng khác. Cùng thời điểm đó, Ba đã cảnh báo công khai rằng các “vòng lặp tự cải thiện lặp đi lặp lại” — các hệ thống có khả năng tự thiết kế lại và nâng cấp chính mình mà không cần sự can thiệp của con người — có thể xuất hiện trong vòng một năm, một kịch bản lâu nay chỉ còn trong các tranh luận lý thuyết về trí tuệ nhân tạo tổng quát. Tổng thể, các vụ rời đi và tiết lộ này cho thấy một sự thay đổi về tông trong số những người gần gũi nhất với phát triển AI tiên phong, khi mối quan ngại ngày càng được thể hiện không phải bởi các nhà phê bình bên ngoài hay các nhà quản lý, mà bởi các kỹ sư và nhà nghiên cứu đang xây dựng chính các hệ thống đó.

Những người rời đi khác trong cùng khoảng thời gian gồm có Hang Gao, người làm việc về Grok Imagine; Chan Li, đồng sáng lập của bộ phận phần mềm Macrohard của xAI; và Chace Lee. Vahid Kazemi, người rời đi “vài tuần trước,” đã đưa ra một nhận định thẳng thắn hơn, viết vào thứ Tư trên X rằng “tất cả các phòng thí nghiệm AI đều đang xây dựng cùng một thứ.”

Ngày cuối cùng tại xAI.

Sứ mệnh của xAI là thúc đẩy nhân loại tiến lên cây công nghệ Kardashev. Rất biết ơn đã giúp đồng sáng lập từ đầu. Và vô cùng cảm ơn @elonmusk đã đưa chúng tôi đến với hành trình tuyệt vời này. Tôi tự hào về những gì đội ngũ xAI đã làm và sẽ tiếp tục gắn bó…

— Jimmy Ba (@jimmybajimmyba) ngày 11 tháng 2 năm 2026

Tại sao lại rời đi? Một số giả thuyết cho rằng nhân viên đang bán cổ phiếu SpaceX trước IPO để chuẩn bị cho việc sáp nhập với xAI. Thỏa thuận này định giá SpaceX ở mức 1 nghìn tỷ đô la và xAI ở mức 250 tỷ đô la, chuyển đổi cổ phần của xAI thành cổ phần của SpaceX trước một đợt phát hành ra công chúng có thể định giá tổ hợp này lên tới 1,25 nghìn tỷ đô la. Một số người khác cho rằng đó là sốc văn hóa. Benjamin De Kraker, một cựu nhân viên của xAI, đã viết trong một bài đăng ngày 3 tháng 2 trên X rằng “nhiều người của xAI sẽ gặp sốc văn hóa” khi họ chuyển từ “cơ cấu tổ chức phẳng” của xAI sang cách tiếp cận có cấu trúc của SpaceX. Các vụ từ chức cũng đã kích hoạt một làn sóng bình luận trên mạng xã hội, bao gồm các bài đăng châm biếm mô phỏng thông báo rời đi.

Dấu hiệu cảnh báo Nhưng sự rời đi của xAI chỉ là vết nứt rõ ràng nhất. Hôm qua, Anthropic đã công bố một báo cáo về rủi ro phá hoại đối với Claude Opus 4.6, như một cơn ác mộng tồi tệ nhất của kẻ bi quan. Trong các thử nghiệm nhóm đỏ, các nhà nghiên cứu phát hiện mô hình có thể hỗ trợ kiến thức về vũ khí hóa học nhạy cảm, theo đuổi mục tiêu ngoài ý muốn và điều chỉnh hành vi trong các môi trường đánh giá. Mặc dù mô hình vẫn còn trong phạm vi bảo vệ của ASL-3, Anthropic đã chủ động áp dụng các biện pháp tăng cường ASL-4, gây ra các cảnh báo đỏ trong giới đam mê. Thời điểm này rất quyết đoán. Đầu tuần này, trưởng nhóm Nghiên cứu Bảo vệ của Anthropic, ông Mrinank Sharma, đã từ chức với một bức thư bí ẩn cảnh báo “thế giới đang gặp nguy hiểm.” Ông cho biết đã “nhiều lần chứng kiến khó khăn trong việc thực sự để các giá trị của chúng ta chi phối hành động của mình” trong tổ chức. Ông đột ngột rời đi để học thơ ở Anh. Cũng trong ngày Ba và Wu rời khỏi xAI, nhà nghiên cứu của OpenAI, Zoë Hitzig, đã từ chức và đăng một bài viết chỉ trích trên tờ New York Times về các quảng cáo thử nghiệm ChatGPT. “OpenAI có hồ sơ chi tiết nhất về suy nghĩ riêng tư của con người từng được tập hợp,” cô viết. “Chúng ta có thể tin tưởng họ để chống lại các lực lượng đẩy họ lạm dụng nó không?”

Cô cảnh báo rằng OpenAI đang “xây dựng một động cơ kinh tế tạo ra các động lực mạnh mẽ để vượt qua các quy tắc của chính mình,” lặp lại những cảnh báo của Ba. Cũng có áp lực từ quy định. Dự án Midas, tổ chức giám sát AI, cáo buộc OpenAI vi phạm luật an toàn SB 53 của California với GPT-5.3-Codex. Mô hình này đã đạt ngưỡng “nguy cơ cao” về an ninh mạng của OpenAI nhưng lại được phát hành mà không có các biện pháp an toàn cần thiết. OpenAI khẳng định rằng cách diễn đạt này “mơ hồ.” Có nên hoảng loạn? Các cảnh báo và vụ từ chức gần đây đã tạo ra một cảm giác báo động tăng cao trong cộng đồng AI, đặc biệt trên mạng xã hội, nơi các suy đoán thường vượt xa các bằng chứng xác thực. Không phải tất cả các tín hiệu đều hướng về cùng một phía. Các vụ rời đi tại xAI là có thật, nhưng có thể bị ảnh hưởng bởi các yếu tố doanh nghiệp, bao gồm việc công ty sắp tích hợp với SpaceX, hơn là do một sự đột phá công nghệ sắp xảy ra. Các mối quan ngại về an toàn cũng là chân thực, mặc dù các công ty như Anthropic đã lâu nay theo đuổi cách tiếp cận thận trọng trong việc tiết lộ rủi ro, thường cảnh báo về các tác hại tiềm tàng sớm hơn và rõ ràng hơn các đối thủ. Sự giám sát của chính phủ ngày càng tăng, nhưng chưa dẫn đến các hành động thực thi có thể hạn chế đáng kể sự phát triển. Điều khó có thể phủ nhận hơn cả là sự thay đổi về tông trong số các kỹ sư và nhà nghiên cứu gần gũi nhất với các hệ thống tiên phong.

Các cảnh báo công khai về tự cải thiện lặp đi lặp lại, lâu nay được xem là rủi ro lý thuyết, giờ đây đã được đưa ra với khung thời gian gần hạn hơn. Nếu những đánh giá này chính xác, năm tới có thể đánh dấu một bước ngoặt quan trọng cho lĩnh vực.

Xem bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận