Tôi thấy rất thích bài báo cáo gần đây về những gì thực sự xảy ra bên trong openai. Về cơ bản, các nhà báo điều tra đã dành hàng tháng phỏng vấn hơn 100 người liên quan, thu thập được các bản ghi nhớ nội bộ chưa từng được công khai và phát hiện ra điều khá đáng lo ngại: tài liệu dài 70 trang của nhà khoa học trưởng Ilya Sutskever kết luận rằng Sam Altman thể hiện một mô hình liên tục của việc nói dối. Không phải là chuyện nhỏ.



Điều khiến tôi chú ý là cách openai bắt đầu như một tổ chức phi lợi nhuận vào năm 2015 với lời hứa rõ ràng là ưu tiên an toàn hơn tất cả. Ý tưởng là nếu AI trở nên nguy hiểm, hội đồng quản trị có quyền chấm dứt công ty. Nhưng rồi vấn đề trung tâm xuất hiện: tất cả phụ thuộc vào một người cực kỳ trung thực kiểm soát công nghệ. Và nếu sự đánh cược sai?

Các chi tiết thật sự đáng lo ngại. Vào tháng 12 năm 2022, trong cuộc họp hội đồng, Sam đảm bảo rằng các chức năng của GPT-4 đã qua kiểm tra an toàn. Khi họ yêu cầu xem các tài liệu, họ phát hiện ra rằng hai trong số các chức năng gây tranh cãi nhất chưa từng được hội đồng phê duyệt. Cũng có ghi chú của Dario Amodei, người sáng lập của Anthropic từng làm việc về an toàn tại openai, mô tả cách công ty từng bước rút lui dưới áp lực thương mại.

Còn nữa. openai đã công bố công khai rằng sẽ phân bổ 20% khả năng tính toán cho một nhóm siêu phù hợp, với giá trị tiềm năng trên 10 tỷ USD. Nhưng thực tế thì sao? Bốn người từng làm việc ở đó xác nhận rằng chỉ là 1-2% tổng khả năng, với phần cứng cũ hơn. Nhóm này đã bị giải thể mà không hoàn thành nhiệm vụ của mình.

Điều thực sự thu hút sự chú ý của tôi là mô tả của một cựu thành viên hội đồng về Sam. Anh ta có một sự kết hợp cực kỳ hiếm: trong các cuộc trò chuyện trực tiếp, thể hiện mong muốn làm hài lòng mạnh mẽ. Đồng thời, lại thể hiện sự thờ ơ gần như xã hội bệnh về hậu quả của việc lừa dối người khác. Các giám đốc điều hành của Microsoft còn so sánh điều này với Bernie Madoff hoặc SBF. Nặng nề.

Bây giờ là vấn đề của CFO Sarah Friar, người không đồng ý đẩy nhanh IPO trong năm nay, lập luận rằng rủi ro tài chính quá cao $1 Sam đã hứa chi hơn 10 tỷ USD cho chi phí tính toán trong năm năm tới(. Nhưng rồi cô ấy lại không báo cáo trực tiếp cho Sam nữa, mà báo cáo cho một giám đốc điều hành khác đã nghỉ phép. Công ty đang trong quá trình IPO với những bất đồng cơ bản giữa CEO và CFO. Thật vô lý.

Điều mà Gary Marcus nêu ra có lý: nếu một mô hình tương lai của openai có thể tạo ra vũ khí sinh học hoặc tiến hành các cuộc tấn công mạng, bạn có thực sự muốn để một người có hồ sơ trung thực như vậy quyết định có cho phép hay không? Phản hồi chính thức của openai khá mơ hồ, đặt câu hỏi về các nguồn thay vì phủ nhận các sự kiện cụ thể.

Đó giống như câu nói tôi đã thấy: một tổ chức phi lợi nhuận được tạo ra để bảo vệ nhân loại đã biến thành một cỗ máy thương mại, nơi hầu như mọi biện pháp an toàn đều bị chính người đó loại bỏ. Tám năm rút ngắn lại thành: chủ nghĩa lý tưởng → tiến bộ công nghệ → vốn lớn → nhiệm vụ nhường chỗ → an toàn bị phá vỡ → cấu trúc biến thành một thực thể có lợi nhuận.

Tất cả những điều này trong khi Sam chuẩn bị đưa openai lên IPO với định giá trên 10 tỷ USD. Hơn trăm nhân chứng đã mô tả anh ta với cùng một nhãn: không bị giới hạn bởi sự thật. Câu chuyện này còn hơn cả tin đồn doanh nghiệp. Khi chúng ta đang nói về công nghệ mạnh nhất trong lịch sử loài người, tính chính trực của CEO không phải là chi tiết, mà là rủi ro sinh tồn cho tất cả mọi người.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim