Tòa nhà Pentagon có thể cấm đoán Anthropic? Bộ trưởng Quốc phòng Mỹ: Hạn chế sử dụng cho mục đích quân sự có thể trở thành mối đe dọa an ninh quốc gia

ChainNewsAbmedia

Bộ Quốc phòng Mỹ đang xem xét có đưa công ty trí tuệ nhân tạo Anthropic vào “danh sách đen rủi ro chuỗi cung ứng” hay không, nhằm cấm hệ thống mô hình hàng đầu của họ là Claude trong hệ thống quốc phòng. Nguyên nhân bắt nguồn từ sự bất đồng về mục đích quân sự, Anthropic kiên quyết đặt ra các giới hạn lý luận, nhấn mạnh sản phẩm không được sử dụng cho giám sát và vũ khí; trong khi đó, Bộ Quốc phòng lại cho rằng AI quân sự phải phục vụ mọi mục đích.

Chuyển biến đột ngột trong hợp tác quân sự: Anthropic đối mặt với kiểm tra “rủi ro chuỗi cung ứng”

Theo Axios, Bộ Quốc phòng Mỹ, có trụ sở tại Pentagon, đang xem xét cắt đứt quan hệ kinh doanh với Anthropic và dự định đưa công ty này vào “danh sách đen rủi ro chuỗi cung ứng”. Thông thường, đây là biện pháp trừng phạt nhằm vào các thế lực đối địch nước ngoài, có thể cấm tất cả các doanh nghiệp hợp tác với quân đội Mỹ sử dụng hệ thống AI của Anthropic.

Hiện tại, mô hình Claude của Anthropic đã tích hợp vào nhiều hệ thống bí mật của quân đội. Nếu bị buộc phải loại bỏ, các nhà thầu liên quan sẽ đối mặt với chi phí kỹ thuật và tuân thủ lớn, với ước tính các hợp đồng quốc phòng bị ảnh hưởng có quy mô khoảng 2 tỷ USD.

Hành động của Madulo trở thành nguyên nhân chính: Giới hạn ứng dụng quân sự của AI nổi bật

Một trong những điểm tranh cãi là việc Claude được sử dụng trong nhiệm vụ quân sự nhằm vào Tổng thống Venezuela Nicolás Maduro vào tháng 1 năm nay, hoạt động này đã thành công nhờ hợp tác giữa Anthropic và công ty phân tích dữ liệu Palantir.

Theo báo cáo, các lãnh đạo của Anthropic sau đó đã hỏi về mục đích sử dụng này và ngầm thể hiện lo ngại về việc mô hình của họ được dùng trong các hoạt động có đạn thật. Hành động này khiến Pentagon không hài lòng, cho rằng các doanh nghiệp không nên đặt câu hỏi về các mục đích quân sự cụ thể trong khuôn khổ hợp tác đã ký kết. Sau đó, hai bên đã tiến hành nhiều vòng đàm phán về phạm vi sử dụng AI, bao gồm giám sát, thu thập tình báo và phát triển vũ khí.

Phát ngôn viên Pentagon, Sean Parnell, xác nhận thông tin này và coi đó là vấn đề an ninh quốc gia: “Đối tác hợp tác phải sẵn sàng giúp chúng tôi chiến thắng trong mọi trận chiến. Cuối cùng, vấn đề này liên quan đến an toàn của lực lượng của chúng tôi và người dân Mỹ.”

Khi các giới hạn đạo đức gặp phải yêu cầu an ninh quốc gia, thái độ của Bộ Quốc phòng trở nên cứng rắn

Giám đốc điều hành Dario Amodei của Anthropic luôn nhấn mạnh rằng cần thiết lập các giới hạn đạo đức rõ ràng cho AI. Chính sách sử dụng của công ty cấm rõ ràng mô hình được dùng cho thiết kế vũ khí, giám sát trong nước và hệ thống vũ khí hoàn toàn tự động, trừ khi có đánh giá riêng trong các hợp đồng đặc thù.

(Từ công cụ độc đoán đến nguy cơ mất kiểm soát: Giám đốc Anthropic giải thích 5 rủi ro lớn của AI mạnh mẽ đối với nhân loại)

Tuy nhiên, Pentagon cho rằng, các công cụ AI quân sự phải có thể dùng cho “mọi mục đích hợp pháp”, và chỉ ra rằng các tình huống thực tế trên chiến trường thường có những vùng xám, việc quá cứng nhắc trong giới hạn sẽ làm giảm tính linh hoạt trong chiến đấu. Theo nguồn tin, Bộ Quốc phòng cũng đặt ra tiêu chuẩn tương tự cho các nhà cung cấp AI khác như OpenAI, Google và xAI (Grok).

(SpaceX tham gia đấu thầu công nghệ drone của Pentagon, Elon Musk đối mặt thử thách trong lĩnh vực AI quân sự)

Các tập đoàn công nghệ lớn tăng cường cạnh tranh: Elon Musk chỉ trích Claude tồn tại “định kiến chủng tộc”

Trong quá trình xem xét của Bộ Quốc phòng, Anthropic còn phải đối mặt với những chỉ trích công khai từ đối thủ cạnh tranh. Gần đây, nhà sáng lập Tesla và xAI, Elon Musk, đã cáo buộc Claude tồn tại thành kiến về ý thức hệ và đặt câu hỏi về nội dung phản cảm đối với các chủng tộc nhất định. Vì xAI và Anthropic cạnh tranh trực tiếp trong thị trường mô hình ngôn ngữ lớn và hợp tác quốc phòng, hành động này cũng được xem là một phần của cuộc cạnh tranh trong ngành.

Hiện tại, các quan chức thừa nhận rằng, trong các ứng dụng chính phủ và bí mật, các mô hình khác vẫn còn kém hơn Claude một chút, khiến việc chuyển đổi nhà cung cấp nhanh chóng trở thành một vấn đề nan giải. Nếu Pentagon cuối cùng đưa Anthropic vào danh sách đen rủi ro chuỗi cung ứng, đây sẽ là lần đầu tiên Mỹ áp dụng các biện pháp trừng phạt đối với các doanh nghiệp công nghệ trong nước dựa trên phạm vi sử dụng AI, mang ý nghĩa tượng trưng cho mô hình hợp tác công nghệ quốc phòng.

Bài viết này ban đầu xuất hiện trên Chain News ABMedia.

Xem bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận