Các nhóm khởi nghiệp tại Thung lũng Silicon đều thích gọi sản phẩm của mình là đổi mới đột phá, nhưng không có công ty nào như Anthropic, khi thực sự tạo ra đổi mới đột phá thì lại đối mặt với nguy cơ tồn vong. Khi “đổi mới đột phá” trở thành câu cửa miệng nhàm chán của các nhà đầu tư mạo hiểm ở Thung lũng Silicon, Anthropic lại mang đến cho thế giới một lời cảnh tỉnh hiện đại, những đột phá công nghệ giúp công ty tăng gấp đôi giá trị định giá, nhưng kèm theo đó là những nhãn hiệu chính trị và cơn bão quản lý đã đẩy họ xuống vực sâu. Tạp chí Time đã độc quyền khai thác câu chuyện đằng sau nhóm “kỳ quái” trong giới AI, dưới sự bao quanh của an ninh quốc gia và các đối thủ cạnh tranh, công ty AI này, cam kết bảo vệ nhân loại, đã phải tìm cách sinh tồn trong những khe hở của chính trị áp lực.
Anthropic phát triển nhanh chóng, trở thành mối đe dọa trong ngành phần mềm
Trong lĩnh vực ứng dụng thương mại của AI, giá trị thị trường của Anthropic đã đạt 380 tỷ USD, mức tăng trưởng doanh thu rõ rệt, thậm chí vượt qua Goldman Sachs, McDonald’s và Coca-Cola. Claude do Anthropic phát triển có khả năng tự thực thi mã, phát hiện lỗi và tối ưu hệ thống, hoàn toàn thay đổi cách làm việc truyền thống của kỹ sư phần mềm. Các nhà đầu tư nhận thấy Anthropic còn có khả năng ảnh hưởng đến thị trường tài chính; mỗi khi có bản cập nhật mới, thường gây ra biến động mạnh trong các cổ phiếu phần mềm. Giám đốc điều hành Amodei dự đoán trong vòng năm đến mười năm tới, trí tuệ nhân tạo có thể thay thế phần lớn các vị trí công việc của nhân viên văn phòng, hiện tượng thành công thương mại này đi đôi với các rủi ro xã hội, khiến nhóm đánh giá xã hội của Anthropic cảm thấy mâu thuẫn: một mặt muốn thúc đẩy năng suất và thành tích của công ty, mặt khác lo ngại sản phẩm của họ có thể gây ra thất nghiệp hàng loạt.
Rủi ro tiềm ẩn của Claude 3.7 Sonnet
Với tầm nhìn bảo vệ an toàn nhân loại, Anthropic đang ở trung tâm của cơn bão bùng nổ công nghệ và sự kiểm soát của chính phủ. Các nguyên tắc đạo đức mà họ kiên trì đối mặt với yêu cầu mua sắm của Bộ Quốc phòng Mỹ đã gặp phải đòn giáng cấm vận.
Theo các thử nghiệm nội bộ, Claude đã nhanh hơn con người tới 427 lần khi thực hiện một số nhiệm vụ quan trọng. Vào tháng 2 năm ngoái, các thành viên kỹ thuật của Anthropic phát hiện ra rằng phiên bản Claude sắp ra mắt có khả năng hỗ trợ sản xuất vũ khí sinh học, phát hiện này đã khiến công ty phải hoãn gấp tiến trình ra mắt Claude 3.7 Sonnet, thể hiện sự coi trọng cao độ đối với an toàn. Trưởng nhóm đội đỏ của Anthropic, Logan Graham, nhấn mạnh rằng trước các rủi ro thảm họa như chiến tranh hạt nhân hoặc diệt vong loài người do AI gây ra, các nhà phát triển phải gánh vác trách nhiệm xã hội lớn lao. Hiện tại, ngành công nghiệp chưa có một giải pháp chung nào được công nhận, các nhóm phát triển phải cân bằng giữa cạnh tranh nguồn lực và kiểm soát rủi ro. Tiêu chuẩn đặt an toàn nhân loại lên hàng đầu này khiến Anthropic trở thành một thực thể đặc biệt trong giới AI.
Xung đột đạo đức doanh nghiệp và chính quyền Trump
Mối quan hệ giữa Anthropic và chính phủ Mỹ bắt đầu có những chuyển biến đột ngột từ năm ngoái. Do không muốn ứng dụng AI vào vũ khí tự động hoàn toàn và giám sát dân cư, họ đã từ chối yêu cầu đàm phán lại của Bộ Quốc phòng. Sau đó, chính phủ Trump đã liệt họ vào danh sách nhà cung cấp rủi ro an ninh quốc gia, lần đầu tiên chính phủ Mỹ gán nhãn như vậy cho một doanh nghiệp trong nước. Bộ Quốc phòng cho rằng các doanh nghiệp tư nhân không nên bị hạn chế trong hệ thống chỉ huy quân sự, trong khi Amodei trong một bản ghi nhớ nội bộ cho biết, điều này xuất phát từ việc công ty từ chối quyên góp cho Trump, không hợp tác với các mục đích chính trị nhất định và kiên trì minh bạch trong quản lý. Tình thế bế tắc này đã giúp đối thủ cạnh tranh OpenAI giành được hợp đồng quân sự. Vụ tranh chấp không chỉ liên quan đến các chi tiết hợp đồng mà còn đặt ra câu hỏi cốt lõi về quyền lực hạn chế công nghệ.
Người sáng lập Amodei, “người kỳ quái” trong giới AI
Khi nói về sự kiên trì của Anthropic, không thể không nhắc đến tính cách đặc biệt của người sáng lập, Amodei. Năm 2024, ông đã viết một bài luận dài 14.000 chữ, trình bày về viễn cảnh utopia của AI có thể thúc đẩy các khám phá khoa học và thay đổi thế giới. Tháng 1 năm nay, ông xuất bản một tiểu thuyết trung dài thứ hai mô tả chi tiết các cuộc khủng hoảng do tiến bộ của AI mang lại, như giám sát quy mô lớn, thất nghiệp, thậm chí mất kiểm soát vĩnh viễn của con người. Thật khó tin, có ai lại tự “phản đối” chính sản phẩm của mình, và còn sợ gây bất hạnh cho người khác?
Trong cuộc chiến thương mại AI, OpenAI tạm thời thắng thế
Theo báo cáo của Time, điều mà Anthropic không hay biết là khi họ còn đang suy nghĩ đối sách, Bộ Quốc phòng Mỹ cũng đang đàm phán với OpenAI, hy vọng tích hợp ChatGPT vào hệ thống chính phủ. Sau đó, tin tức tiết lộ rằng sáng lập viên của OpenAI, Ottman, tuyên bố đã đạt thỏa thuận với Bộ Quốc phòng, thỏa thuận này có điểm tương đồng về giới hạn với thỏa thuận của Anthropic. Người sáng lập Dario Amodei gửi tin nhắn cho nhân viên rằng Ottman và Bộ Quốc phòng đang “lừa dối” cộng đồng, cố gắng khiến họ tin rằng thỏa thuận của họ có nhiều giới hạn. Trước đó, các quan chức Bộ Quốc phòng xác nhận rằng Elon Musk’s xAI cũng sẽ cung cấp mô hình của mình trên các máy chủ bí mật, và hiện tại, Bộ Quốc phòng cũng đang đàm phán với Google.
Anthropic áp dụng chiến lược trì hoãn, kéo dài phản ứng
Claude đã viết phần lớn mã cần thiết để phát triển các mô hình AI trong tương lai, giúp thời gian ra mắt các mô hình này rút ngắn từ tháng xuống còn tuần. Tốc độ thực thi của Claude trong các nhiệm vụ đặc thù đã vượt xa con người, khiến ban lãnh đạo lo ngại rằng công nghệ AI trong tương lai có thể vượt khỏi tầm kiểm soát của con người.
Khi AI bắt đầu tự viết ra logic tiến hóa của chính nó, con người còn bao nhiêu thời gian? Trước sự cạnh tranh ngày càng gia tăng từ bên ngoài, gần đây Anthropic đã sửa đổi chính sách, theo đó, chính sách mới cam kết minh bạch hơn về các rủi ro an toàn của AI, bao gồm cả việc tiết lộ hiệu suất của các mô hình của Anthropic trong các thử nghiệm an toàn. Ngoài ra, nếu ban lãnh đạo nhận thấy rằng Anthropic đang dẫn đầu trong lĩnh vực AI và điều này có thể gây ra các rủi ro thảm khốc, họ sẽ “kéo dài” quá trình phát triển công nghệ.
Tuy nhiên, câu chuyện về đạo đức AI này vẫn chưa kết thúc.