Anthropic và Pentagon xảy ra xung đột trực diện! Giám đốc điều hành Amodei từ chối "giám sát quy mô lớn trong nước" và "vũ khí hoàn toàn tự chủ"

ChainNewsAbmedia

Anthropic, do Dario Amodei lãnh đạo, luôn được coi là một trong những công ty AI tích cực nhất làm việc với chính phủ Mỹ, nhưng giờ đây họ đang công khai đối đầu với Lầu Năm Góc về hai hạn chế sử dụng chính.

Amodei nhấn mạnh rằng công ty sẵn sàng hỗ trợ 98% đến 99% việc sử dụng quốc phòng, nhưng bám sát điểm mấu chốt về hai vấn đề “giám sát hàng loạt trong nước” và “vũ khí hoàn toàn tự động”. Ông nói rằng đây không phải là một sự bác bỏ an ninh quốc gia, mà là để bảo vệ các giá trị dân chủ và tinh thần hiến pháp của Hoa Kỳ.

Nó rất hợp tác với hệ thống quốc phòng, nhưng nó vạch ra một lằn ranh đỏ ở hai điểm

Amodei nhấn mạnh trong cuộc phỏng vấn rằng Anthropic thực sự là một trong những công ty AI đầu tiên hợp tác sâu sắc với hệ thống an ninh quốc gia của Hoa Kỳ. Ông chỉ ra rằng công ty đã đi đầu trong việc triển khai các mô hình cho môi trường đám mây bí mật và cũng tạo ra các mô hình tùy chỉnh cho mục đích an ninh quốc gia, hiện được sử dụng rộng rãi trong các đơn vị tình báo và hệ thống quân sự, bao gồm an ninh mạng và hỗ trợ chiến đấu.

Nói cách khác, Anthropic không từ chối sử dụng quân sự, nhưng là một người tham gia tích cực.

Tuy nhiên, công ty đề xuất rõ ràng hai hạn chế không thể thương lượng đối với việc sử dụng:

Thứ nhất, đó là “giám sát quy mô lớn trong nước”. Amodei lo lắng rằng AI cho phép các chính phủ phân tích lượng lớn dữ liệu từ các công ty tư nhân, chẳng hạn như hồ sơ vị trí, đảng phái chính trị và dữ liệu hành vi cá nhân, trên quy mô chưa từng có. Những hành vi này có thể không phải là bất hợp pháp theo khuôn khổ pháp lý hiện tại, nhưng sự phát triển bùng nổ của công nghệ AI đã cho phép khả năng giám sát vượt xa mục đích lập pháp ban đầu.

Thứ hai là “vũ khí hoàn toàn tự động”, tức là các hệ thống vũ khí tự động quyết định khai hỏa mà không có bất kỳ sự tham gia nào của con người. Amodei chỉ ra rằng các hệ thống AI hiện tại vẫn có các vấn đề về độ tin cậy và không thể đoán trước, và nếu hoàn toàn phụ thuộc vào việc ra quyết định của máy móc, nó có thể dẫn đến phán đoán sai, sai lầm hoặc thậm chí gây thương tích do tai nạn cho thường dân.

Đặc biệt, ông nhấn mạnh rằng điều này khác với “vũ khí bán tự động” hiện đang được sử dụng trên chiến trường, mà là một hệ thống vũ khí hoàn toàn không có sự giám sát.

Tối hậu thư ba ngày và tranh chấp “rủi ro chuỗi cung ứng”

Theo Amodei, Lầu Năm Góc đã yêu cầu Anthropic đồng ý với các điều kiện của mình chỉ trong ba ngày, nếu không nó sẽ được phân loại là “rủi ro chuỗi cung ứng”. Trong quá khứ, những chỉ định như vậy thường được sử dụng cho các đối thủ nước ngoài, chẳng hạn như các công ty liên quan đến Nga hoặc Trung Quốc, và hầu như không bao giờ được sử dụng cho các công ty nội địa Mỹ.

Gây tranh cãi hơn, giao tiếp được đề cập chủ yếu thông qua các bài đăng trên mạng xã hội. Amodei cho biết công ty chưa nhận được bất kỳ tài liệu pháp lý chính thức nào cho đến nay, chỉ nhận được tuyên bố công khai từ tổng thống và các quan chức quốc phòng trên X (trước đây là Twitter).

Tổng thống Mỹ Donald Trump thậm chí còn công khai chỉ trích Anthropic là “ích kỷ”, nói rằng động thái này gây nguy hiểm cho quân đội và an ninh quốc gia của Mỹ.

Đáp lại, Amodei trả lời rằng công ty sẵn sàng hỗ trợ Bộ Quốc phòng chuyển giao suôn sẻ cho các nhà cung cấp khác ngay cả khi bị trừng phạt, tránh việc quân đội lùi từ 6 đến 12 tháng do ngừng hoạt động công nghệ.

Vấn đề cốt lõi thực sự là gì?

Amodei tin rằng bản chất của cuộc tranh chấp không phải là “ai yêu nước hơn” mà là về sự trưởng thành và trách nhiệm về công nghệ.

Ông chỉ ra rằng AI vẫn không thể đoán trước. Ngay cả khi hiệu suất tổng thể là tuyệt vời, sai sót 1% vào thời điểm quan trọng có thể là thảm họa cho các hoạt động quân sự. Các cuộc tấn công ngẫu nhiên vào thường dân, đánh giá sai lầm giữa bạn và thù, và thậm chí thương vong thân thiện có thể xảy ra.

Vấn đề sâu xa hơn là “cơ chế trách nhiệm”. Giả sử một mạng lưới vũ khí trong tương lai gồm hàng triệu máy bay không người lái, được điều khiển bởi một vài người hoặc thậm chí một chỉ huy, ai sẽ chịu trách nhiệm khi xảy ra lỗi? AI? Kỹ sư? Sĩ quan? Hay các nhà lãnh đạo chính trị?

Những vấn đề này vẫn chưa được thảo luận đầy đủ ở cấp quốc hội.

Doanh nghiệp tư nhân có vượt trội hơn chính phủ?

Câu hỏi gay gắt nhất trong cuộc phỏng vấn là: Tại sao một công ty tư nhân có quyền quyết định quân đội có thể sử dụng công nghệ của mình như thế nào?

Câu trả lời của Amodei rất đơn giản - thị trường tự do.

Ông chỉ ra rằng chính phủ có mọi lựa chọn về các nhà cung cấp khác. Nếu các giá trị không phù hợp, cả hai bên nên chia tay một cách hòa bình thay vì áp đặt các biện pháp trừng phạt thông qua dán nhãn rủi ro chuỗi cung ứng. Ông tin rằng cách làm này có tác động lạnh lùng đối với các doanh nghiệp tư nhân.

Đồng thời, ông cũng thừa nhận rằng về lâu dài, các công ty tư nhân và quân đội không nên phân định ranh giới của riêng họ, mà nên được Quốc hội lập pháp để thiết lập các quy định rõ ràng. Ông kêu gọi Quốc hội phát triển một khuôn khổ mới cho AI trong lĩnh vực giám sát và vũ khí tự động, để luật có thể theo kịp sự phát triển của công nghệ.

Đó có phải là về ý thức hệ?

Anthropic đã bị chỉ trích là một “công ty thức tỉnh cánh tả”. Amodei phủ nhận tuyên bố này, nhấn mạnh rằng công ty đã hợp tác với chính phủ về nhiều vấn đề như chính sách năng lượng và kế hoạch hành động AI. Ông nói rằng sự bất đồng này không phải là về lập trường chính trị, mà là về giá trị và quản lý rủi ro.

Ông nhấn mạnh: “Không đồng ý với chính phủ là hành vi của người Mỹ nhất”.

Anthropic có thể vượt qua cơn bão này không?

Ở cấp độ kinh doanh, Amodei có vẻ khá tự tin. Ông chỉ ra rằng phạm vi thực tế của việc chỉ định rủi ro chuỗi cung ứng là hạn chế và sẽ không cấm hoàn toàn các công ty khác sử dụng công nghệ Anthropic, mà chỉ trong các tình huống liên quan đến hợp đồng quân sự.

Ông tin rằng một số nhận xét cố tình khuếch đại tác động và tạo ra “nỗi sợ hãi, sự không chắc chắn và nghi ngờ” (FUD), nhưng hoạt động kinh doanh cơ bản của công ty sẽ vẫn ổn định.

Xung đột này thực sự tiết lộ một câu hỏi lớn hơn: ai là người đặt ra ranh giới khi công nghệ AI phát triển với tốc độ theo cấp số nhân trong khi luật pháp và quy định di chuyển chậm?

Anthropic ủng hộ rằng “99% có thể hợp tác và 1% phải thận trọng”, trong khi Lầu Năm Góc nhấn mạnh rằng “tất cả các mục đích sử dụng hợp pháp nên được mở”. Khoảng cách giữa hai bên không chỉ là sự khác biệt về chính sách, mà còn là một dự đoán khác nhau về các cuộc chiến tranh trong tương lai.

Bài viết này Anthropic và Lầu Năm Góc đụng độ trực diện! Giám đốc điều hành Amodei từ chối ‘giám sát hàng loạt trong nước’ và ‘vũ khí hoàn toàn tự động’ appeared first on Chain News ABMedia.

Xem bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)