OpenAI Just Told the Pentagon What It Wanted to Hear


Tôi là đội Anthropic. Đáng nói rõ ngay từ đầu.
Claude là mô hình AI duy nhất trong các mạng lưới phân loại của quân đội Mỹ. Không phải một trong nhiều — là duy nhất. Phân tích tình báo, lập kế hoạch tác chiến, hoạt động mạng, mô hình hóa và mô phỏng. Được tích hợp sâu đến mức một quan chức cấp cao của Pentagon thừa nhận việc rút nó ra sẽ là "một cơn đau khổ lớn."
Và rồi Anthropic nói không.
Pentagon muốn một điều khoản hợp đồng: tất cả các mục đích hợp pháp. Nghe có vẻ hợp lý cho đến khi bạn hiểu rõ điều gì là hợp pháp — phân tích hàng loạt dữ liệu vị trí thương mại, tín hiệu theo dõi sức khỏe, hồ sơ điện thoại, tất cả kết hợp quy mô lớn để tạo hồ sơ về dân thường Mỹ. Không phải là bất hợp pháp. Chắc chắn là giám sát. Anthropic đã vạch ra giới hạn ở đó, và về vũ khí tự động. Họ muốn điều đó được ghi rõ trong hợp đồng. Bộ Quốc phòng nói không. Các cuộc đàm phán đổ vỡ vào tháng 2.
Trump tuyên bố Anthropic là rủi ro chuỗi cung ứng và ra lệnh cho mọi cơ quan liên bang ngừng sử dụng công nghệ của họ. Thông báo đó thường dành cho các đối thủ nước ngoài. Đối với một công ty không cho phép quân đội do thám công dân của chính mình mà không hạn chế.
Chỉ vài giờ sau, OpenAI đã có thỏa thuận. Cùng điều khoản, Pentagon nói — nhưng các nhà phân tích đọc hợp đồng thực tế phát hiện ra việc triển khai chỉ trên đám mây và các tiêu chuẩn pháp lý không có trong đề nghị của Anthropic. Hãy tự suy nghĩ về điều đó.
Đây là điều tôi vẫn nghĩ đến. Anthropic biết chính xác vị trí của họ. Hiện tại họ có mô hình lý luận tốt nhất — không gần, Claude Opus 4.6 đạt 68.8% trên ARC-AGI-2, GPT đạt 52.9%. Chính phủ cũng biết điều đó. Họ muốn Claude đặc biệt. Họ đe dọa "bắt họ trả giá" đặc biệt. Và ngay cả sau tất cả, lựa chọn thay thế của họ là Grok, mà chính họ thừa nhận không phải là một sự thay thế hoàn hảo. Bạn không đưa ra một mối đe dọa như vậy với một nhà cung cấp mà bạn có thể bỏ đi.
Vì vậy, Anthropic có tất cả thế mạnh. Họ có mô hình mà không ai khác có thể sao chép, sự hiện diện duy nhất trong các hệ thống phân loại, và một nền tảng doanh thu đủ lớn để $200M trở thành tiếng ồn. Họ vẫn nói không. Và bây giờ họ phải trả giá cho điều đó.
Đó không phải là tử đạo — đó là một công ty hiểu rõ những gì mình đang nắm giữ. Khi bạn tin rằng bạn có thể đang xây dựng thứ gì đó không có giới hạn rõ ràng về khả năng, và chính phủ muốn vận hành nó trên chính công dân của mình mà không có giới hạn viết ra, bạn hoặc giữ vững lập trường đó hoặc không. Họ đã giữ vững.
Sách chơi của Altman cũ hơn. Cho người ta dùng miễn phí sản phẩm. Xây dựng thói quen quy mô lớn. Sau đó, thói quen đó có giá, và ai đó sẽ trả — nhà quảng cáo, rồi chính phủ, rồi người tiếp theo. Người dùng không cần hiểu chuỗi đó. Người dùng chỉ cần tiếp tục sử dụng.
Hầu hết không muốn biết. Điều đó cũng ổn. Kinh tế vẫn hoạt động theo cách đó.
Nhưng Pentagon vừa gặp phải phòng thí nghiệm AI duy nhất quyết định hợp đồng quan trọng hơn điều khoản. Rằng họ thích bị gắn nhãn là mối đe dọa an ninh quốc gia hơn là bỏ qua một dòng về giám sát. Và bất kể bạn nghĩ gì về ngành công nghiệp AI nói chung, quyết định cụ thể đó, dưới áp lực cụ thể đó — thật sự là điều bất thường.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim