Nhà phát triển Claude, Anthropic, từ chối cho phép các sản phẩm của mình được triển khai cho vũ khí tự động hoặc giám sát quy mô lớn
CEO của Anthropic, Dario Amodei, đã cảnh báo rằng trí tuệ nhân tạo có khả năng làm suy yếu các giá trị dân chủ.
Ngày thứ Sáu, Tổng thống Donald Trump đã ra lệnh cho chính phủ Mỹ ngừng sử dụng các mô hình trí tuệ nhân tạo của Anthropic và đe dọa công ty này sẽ phải đối mặt với hậu quả “lớn”.
“Anthropic tốt hơn nên chỉnh đốn lại, và giúp đỡ trong giai đoạn này, hoặc tôi sẽ sử dụng Toàn bộ Quyền lực của Tổng thống để buộc họ tuân thủ, với hậu quả dân sự và hình sự lớn theo sau,” Trump nói trong bài đăng trên nền tảng Truth Social của mình.
Trump chỉ đạo tất cả các cơ quan liên bang ngay lập tức ngừng sử dụng các mô hình AI Claude của Anthropic. Ông còn nói rằng Bộ Quốc phòng và các cơ quan khác của Mỹ có sáu tháng để loại bỏ công nghệ của Anthropic.
Mâu thuẫn bắt nguồn từ hợp đồng của Anthropic với Bộ Quốc phòng, trị giá lên tới 200 triệu USD. Anthropic đã đặt ra giới hạn về cách bộ này có thể sử dụng công nghệ của họ. Cụ thể, Anthropic không muốn các sản phẩm của mình được sử dụng để phát triển vũ khí tự động hoặc cho giám sát quy mô lớn.
Bộ Quốc phòng Mỹ đã tuyên bố rằng họ “không có ý định” sử dụng AI cho những mục đích đó.
Tuy nhiên, sau khi Trump công bố về Anthropic, OpenAI cho biết họ đã ký hợp đồng với chính phủ và đã có thể đảm bảo các ngoại lệ.
“Hai trong số các nguyên tắc an toàn quan trọng nhất của chúng tôi là cấm giám sát quy mô lớn trong nước và trách nhiệm của con người trong việc sử dụng lực lượng, bao gồm cả hệ thống vũ khí tự động,” CEO của OpenAI, Sam Altman, nói trên nền tảng X. Bộ Quốc phòng “đồng ý với những nguyên tắc này, phản ánh chúng trong luật và chính sách, và chúng tôi đã đưa chúng vào thỏa thuận của mình,” ông nói thêm.
Trong khi đó, CEO của Anthropic, Dario Amodei, đã viết trong một bài blog rằng công ty của ông “đã cố gắng trong thiện chí để đạt được thỏa thuận với Bộ Chiến tranh,” dùng tên mà chính quyền Trump ưa thích để gọi Bộ Quốc phòng, “làm rõ rằng chúng tôi ủng hộ tất cả các mục đích hợp pháp của AI vì an ninh quốc gia ngoại trừ hai ngoại lệ hẹp.”
Công ty không “tin rằng các mô hình AI tiên tiến ngày nay đủ đáng tin cậy để sử dụng trong vũ khí tự động hoàn toàn,” ông nói. Và, ông cho biết, nhóm của Anthropic tin rằng “giám sát quy mô lớn đối với người Mỹ là vi phạm quyền cơ bản.”
Thông báo của Trump đến sau nhiều ngày đàm phán công khai và riêng tư giữa Bộ Quốc phòng và Anthropic, đôi khi trở nên gay gắt. Sau khi Amodei bảo vệ việc công ty ông không nhúc nhích vào thứ Năm, một quan chức Bộ Quốc phòng đã cáo buộc ông cố gắng “kiểm soát cá nhân quân đội Mỹ.”
“Thật đáng tiếc rằng @DarioAmodei là kẻ nói dối và có ý thức siêu phàm,” Emil Michael, thứ trưởng phụ trách nghiên cứu và kỹ thuật của Bộ Quốc phòng, đã viết trên X. Michael, cựu giám đốc điều hành của Uber Technologies (UBER), cũng cáo buộc Anthropic có kế hoạch “áp đặt” giá trị của mình lên người Mỹ.
Một bản ghi nhớ ngày 9 tháng 1 do Bộ trưởng Quốc phòng Pete Hegseth ban hành yêu cầu các phòng thí nghiệm AI sửa đổi hợp đồng quốc phòng của họ để cho phép “bất kỳ mục đích hợp pháp nào” của công nghệ của họ. Hegseth đã giao cho bộ 180 ngày để đưa tiêu chuẩn này vào bất kỳ hợp đồng nào liên quan đến mua dịch vụ AI.
“DoD không muốn chính sách sử dụng của một công ty tư nhân hoạt động như một quyền phủ quyết đối với các ứng dụng quân sự hợp pháp,” Jessica Tillipman, giảng viên luật của Trường Luật Đại học George Washington, chuyên về luật mua sắm của chính phủ, nói qua email với MarketWatch.
" Nếu DoD làm điều này thành điều khoản mặc định cho tất cả các nhà cung cấp AI, điều đó loại bỏ khả năng đàm phán từng nhà cung cấp về việc sử dụng chấp nhận được và báo hiệu rằng các công ty không chấp nhận tiêu chuẩn đó sẽ bị thay thế," Tillipman nói. “Nghe có vẻ như là phần hợp đồng nhàm chán, nhưng thực ra là về sức mạnh đàm phán trong mua sắm.”
Sau tuyên bố của Trump, Hegseth chính thức tuyên bố Anthropic là rủi ro chuỗi cung ứng đối với an ninh quốc gia, một danh xưng trước đây chỉ áp dụng cho các công ty nước ngoài, đặc biệt là các công ty có trụ sở tại Trung Quốc và được cho là chịu ảnh hưởng của chính phủ. Do hành động của Hegseth, không nhà thầu, nhà cung cấp hay đối tác nào làm ăn với quân đội Mỹ có thể tiến hành “bất kỳ hoạt động thương mại nào” với Anthropic.
Điều này có thể gây hậu quả lớn đối với Anthropic, công ty gần đây đã huy động được 30 tỷ USD với định giá 380 tỷ USD và tiết lộ doanh thu hàng năm 14 tỷ USD, chủ yếu dựa vào việc tăng cường sử dụng sản phẩm của doanh nghiệp. Hơn 500 khách hàng doanh nghiệp hiện chi hơn 1 triệu USD mỗi năm cho các sản phẩm của Anthropic.
Microsoft (MSFT), cùng với Nvidia (NVDA), đã ký kết hợp tác chiến lược với Anthropic vào tháng 11 năm ngoái, đang làm việc với Bộ Quốc phòng. Amazon (AMZN), đã đầu tư hàng tỷ đô la vào Anthropic, gần đây đã đề xuất kế hoạch hỗ trợ Bộ Quốc phòng thông qua việc truy cập Amazon Web Services.
Trước tuần này, Claude là mô hình AI duy nhất được phê duyệt cho mục đích phân loại trong Bộ Quốc phòng. Claude thậm chí còn được sử dụng, thông qua hợp tác với Palantir Technologies (PLTR), để giúp Mỹ bắt giữ cựu tổng thống Venezuela, Nicolás Maduro, theo Wall Street Journal.
Tuy nhiên, Elon Musk’s xAI đã ký hợp đồng cho phép mô hình Grok gây tranh cãi của mình được sử dụng cho mục đích phân loại từ đầu tuần này. Các quan chức của nhiều cơ quan liên bang đã bày tỏ lo ngại về các vấn đề an toàn tiềm tàng của Grok, theo báo cáo của Journal.
Xem thêm: Amazon, Nvidia và SoftBank đổ 110 tỷ USD vào OpenAI - nâng cao cuộc đua kiếm tiền từ AI
Emily Bary đã đóng góp.
William Gavin
Nội dung này do MarketWatch tạo ra, thuộc sở hữu của Dow Jones & Co. MarketWatch được xuất bản độc lập với Dow Jones Newswires và The Wall Street Journal.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Trump đưa vào danh sách đen Anthropic - và OpenAI nhanh chóng can thiệp
Bởi William Gavin
Nhà phát triển Claude, Anthropic, từ chối cho phép các sản phẩm của mình được triển khai cho vũ khí tự động hoặc giám sát quy mô lớn
CEO của Anthropic, Dario Amodei, đã cảnh báo rằng trí tuệ nhân tạo có khả năng làm suy yếu các giá trị dân chủ.
Ngày thứ Sáu, Tổng thống Donald Trump đã ra lệnh cho chính phủ Mỹ ngừng sử dụng các mô hình trí tuệ nhân tạo của Anthropic và đe dọa công ty này sẽ phải đối mặt với hậu quả “lớn”.
“Anthropic tốt hơn nên chỉnh đốn lại, và giúp đỡ trong giai đoạn này, hoặc tôi sẽ sử dụng Toàn bộ Quyền lực của Tổng thống để buộc họ tuân thủ, với hậu quả dân sự và hình sự lớn theo sau,” Trump nói trong bài đăng trên nền tảng Truth Social của mình.
Trump chỉ đạo tất cả các cơ quan liên bang ngay lập tức ngừng sử dụng các mô hình AI Claude của Anthropic. Ông còn nói rằng Bộ Quốc phòng và các cơ quan khác của Mỹ có sáu tháng để loại bỏ công nghệ của Anthropic.
Mâu thuẫn bắt nguồn từ hợp đồng của Anthropic với Bộ Quốc phòng, trị giá lên tới 200 triệu USD. Anthropic đã đặt ra giới hạn về cách bộ này có thể sử dụng công nghệ của họ. Cụ thể, Anthropic không muốn các sản phẩm của mình được sử dụng để phát triển vũ khí tự động hoặc cho giám sát quy mô lớn.
Bộ Quốc phòng Mỹ đã tuyên bố rằng họ “không có ý định” sử dụng AI cho những mục đích đó.
Tuy nhiên, sau khi Trump công bố về Anthropic, OpenAI cho biết họ đã ký hợp đồng với chính phủ và đã có thể đảm bảo các ngoại lệ.
“Hai trong số các nguyên tắc an toàn quan trọng nhất của chúng tôi là cấm giám sát quy mô lớn trong nước và trách nhiệm của con người trong việc sử dụng lực lượng, bao gồm cả hệ thống vũ khí tự động,” CEO của OpenAI, Sam Altman, nói trên nền tảng X. Bộ Quốc phòng “đồng ý với những nguyên tắc này, phản ánh chúng trong luật và chính sách, và chúng tôi đã đưa chúng vào thỏa thuận của mình,” ông nói thêm.
Trong khi đó, CEO của Anthropic, Dario Amodei, đã viết trong một bài blog rằng công ty của ông “đã cố gắng trong thiện chí để đạt được thỏa thuận với Bộ Chiến tranh,” dùng tên mà chính quyền Trump ưa thích để gọi Bộ Quốc phòng, “làm rõ rằng chúng tôi ủng hộ tất cả các mục đích hợp pháp của AI vì an ninh quốc gia ngoại trừ hai ngoại lệ hẹp.”
Công ty không “tin rằng các mô hình AI tiên tiến ngày nay đủ đáng tin cậy để sử dụng trong vũ khí tự động hoàn toàn,” ông nói. Và, ông cho biết, nhóm của Anthropic tin rằng “giám sát quy mô lớn đối với người Mỹ là vi phạm quyền cơ bản.”
Thông báo của Trump đến sau nhiều ngày đàm phán công khai và riêng tư giữa Bộ Quốc phòng và Anthropic, đôi khi trở nên gay gắt. Sau khi Amodei bảo vệ việc công ty ông không nhúc nhích vào thứ Năm, một quan chức Bộ Quốc phòng đã cáo buộc ông cố gắng “kiểm soát cá nhân quân đội Mỹ.”
“Thật đáng tiếc rằng @DarioAmodei là kẻ nói dối và có ý thức siêu phàm,” Emil Michael, thứ trưởng phụ trách nghiên cứu và kỹ thuật của Bộ Quốc phòng, đã viết trên X. Michael, cựu giám đốc điều hành của Uber Technologies (UBER), cũng cáo buộc Anthropic có kế hoạch “áp đặt” giá trị của mình lên người Mỹ.
Một bản ghi nhớ ngày 9 tháng 1 do Bộ trưởng Quốc phòng Pete Hegseth ban hành yêu cầu các phòng thí nghiệm AI sửa đổi hợp đồng quốc phòng của họ để cho phép “bất kỳ mục đích hợp pháp nào” của công nghệ của họ. Hegseth đã giao cho bộ 180 ngày để đưa tiêu chuẩn này vào bất kỳ hợp đồng nào liên quan đến mua dịch vụ AI.
“DoD không muốn chính sách sử dụng của một công ty tư nhân hoạt động như một quyền phủ quyết đối với các ứng dụng quân sự hợp pháp,” Jessica Tillipman, giảng viên luật của Trường Luật Đại học George Washington, chuyên về luật mua sắm của chính phủ, nói qua email với MarketWatch.
" Nếu DoD làm điều này thành điều khoản mặc định cho tất cả các nhà cung cấp AI, điều đó loại bỏ khả năng đàm phán từng nhà cung cấp về việc sử dụng chấp nhận được và báo hiệu rằng các công ty không chấp nhận tiêu chuẩn đó sẽ bị thay thế," Tillipman nói. “Nghe có vẻ như là phần hợp đồng nhàm chán, nhưng thực ra là về sức mạnh đàm phán trong mua sắm.”
Sau tuyên bố của Trump, Hegseth chính thức tuyên bố Anthropic là rủi ro chuỗi cung ứng đối với an ninh quốc gia, một danh xưng trước đây chỉ áp dụng cho các công ty nước ngoài, đặc biệt là các công ty có trụ sở tại Trung Quốc và được cho là chịu ảnh hưởng của chính phủ. Do hành động của Hegseth, không nhà thầu, nhà cung cấp hay đối tác nào làm ăn với quân đội Mỹ có thể tiến hành “bất kỳ hoạt động thương mại nào” với Anthropic.
Điều này có thể gây hậu quả lớn đối với Anthropic, công ty gần đây đã huy động được 30 tỷ USD với định giá 380 tỷ USD và tiết lộ doanh thu hàng năm 14 tỷ USD, chủ yếu dựa vào việc tăng cường sử dụng sản phẩm của doanh nghiệp. Hơn 500 khách hàng doanh nghiệp hiện chi hơn 1 triệu USD mỗi năm cho các sản phẩm của Anthropic.
Microsoft (MSFT), cùng với Nvidia (NVDA), đã ký kết hợp tác chiến lược với Anthropic vào tháng 11 năm ngoái, đang làm việc với Bộ Quốc phòng. Amazon (AMZN), đã đầu tư hàng tỷ đô la vào Anthropic, gần đây đã đề xuất kế hoạch hỗ trợ Bộ Quốc phòng thông qua việc truy cập Amazon Web Services.
Trước tuần này, Claude là mô hình AI duy nhất được phê duyệt cho mục đích phân loại trong Bộ Quốc phòng. Claude thậm chí còn được sử dụng, thông qua hợp tác với Palantir Technologies (PLTR), để giúp Mỹ bắt giữ cựu tổng thống Venezuela, Nicolás Maduro, theo Wall Street Journal.
Tuy nhiên, Elon Musk’s xAI đã ký hợp đồng cho phép mô hình Grok gây tranh cãi của mình được sử dụng cho mục đích phân loại từ đầu tuần này. Các quan chức của nhiều cơ quan liên bang đã bày tỏ lo ngại về các vấn đề an toàn tiềm tàng của Grok, theo báo cáo của Journal.
Xem thêm: Amazon, Nvidia và SoftBank đổ 110 tỷ USD vào OpenAI - nâng cao cuộc đua kiếm tiền từ AI
Emily Bary đã đóng góp.
Nội dung này do MarketWatch tạo ra, thuộc sở hữu của Dow Jones & Co. MarketWatch được xuất bản độc lập với Dow Jones Newswires và The Wall Street Journal.
(END) Dow Jones Newswires
28-02-2026 09:42ET
Bản quyền © 2026 của Dow Jones & Company, Inc.