Hơn 580 Nhân viên Google Yêu cầu CEO Ngăn Hợp đồng AI với Lầu Năm Góc

Tin tức từ Gate, ngày 27 tháng 4 — Hơn 580 nhân viên của Google đã ký một bức thư ngỏ, kêu gọi CEO Sundar Pichai ngăn Lầu Năm Góc sử dụng công nghệ trí tuệ nhân tạo của công ty cho các ứng dụng quân sự. Các người ký, bao gồm hơn 18 nhân sự cấp cao trải dài từ giám đốc/hiệu trưởng và giám đốc cho đến phó chủ tịch, nêu ra những lo ngại về mặt đạo đức đối với các hệ thống AI được triển khai cho vũ khí tự động gây chết người.

Bức thư yêu cầu tạm dừng ngay việc triển khai AI của Google cho mục đích quân sự, tăng minh bạch xung quanh các hợp đồng hiện có với Lầu Năm Góc và thành lập một hội đồng đạo đức thường trực có sự tham gia của nhân viên để xem xét các quan hệ đối tác quân sự trong tương lai. Nhân viên đặc biệt bày tỏ lo ngại rằng các dịch vụ điện toán đám mây và công cụ học máy của công ty có thể đang được sử dụng để vận hành các hệ thống vũ khí tự động gây chết người. “Chúng tôi muốn thấy AI mang lại lợi ích cho nhân loại; không phải để nó được dùng theo những cách vô nhân đạo hoặc cực kỳ gây hại,” các người ký viết.

Hành động này diễn ra sau việc Google rút lui khỏi Dự án Maven vào năm 2018, một chương trình của Lầu Năm Góc sử dụng AI để phân tích hình ảnh do máy bay không người lái ghi lại, điều mà các nhân viên nêu như một tiền lệ cho việc từ chối làm việc quân sự vì lý do đạo đức. Cuộc nổi dậy của nhân viên phản ánh những căng thẳng rộng hơn trong ngành công nghệ đối với các quan hệ đối tác AI cho mục đích quân sự, xảy ra trong bối cảnh có một cuộc đụng độ được chú ý giữa Lầu Năm Góc và Anthropic: khi đó, Bộ Quốc phòng đã loại bỏ công ty khởi nghiệp AI này cách đây hai tháng, sau khi công ty từ chối gỡ bỏ các hạn chế theo hợp đồng đối với giám sát trong nước và việc sử dụng vũ khí tự động hoàn toàn.

Lầu Năm Góc ngày càng xem AI là yếu tố trung tâm cho các hoạt động quân sự trong tương lai. Chủ tịch Hội đồng Tham mưu trưởng Liên quân, Tướng Dan Caine, đã mô tả các vũ khí tự động là một “phần then chốt và thiết yếu của mọi thứ chúng tôi làm” trong thời gian tới. Mặc dù chính phủ Mỹ đang tranh chấp với Anthropic, theo thông tin được cho là, NSA đã được cấp quyền truy cập Mythos Preview, một mô hình AI mà Anthropic hạn chế cho một nhóm nhỏ các nhà nghiên cứu và các tổ chức an ninh mạng.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

Claude/GPT có quá thích nịnh bợ? Một đoạn gợi ý trong Claude.md khiến AI đưa ra câu trả lời cứng rắn và chính xác

Bài viết này giới thiệu một đoạn prompt có thể đưa vào Claude.md / Agents.md, nhằm chuyển AI từ vai trò trợ lý “khéo léo” sang một cố vấn thẳng thắn, thông qua 4 tầng điều chỉnh: thiết lập thân phận, kiểm chứng sự thật, giải phóng giọng điệu và miễn trừ sự chính xác về mặt chính trị, yêu cầu hoàn chỉnh, xác minh từng bước, tuyệt đối không bịa đặt; khi cần thiết thì có thể khiêu khích. Bài viết cũng nêu thời điểm tải prompt, các rủi ro và các tình huống phù hợp (nghiên cứu, viết lách, đánh giá kỹ thuật, thảo luận học thuật), đồng thời không phù hợp với dịch vụ chăm sóc khách hàng, giáo dục và tư vấn y tế. Nguồn gốc bài viết gốc là ABMedia.

ChainNewsAbmedia28phút trước

OpenAI ra mắt ChatGPT Futures: 26 sinh viên khóa đầu tiên nhận học bổng 10.000 USD, trải dài trên hơn 20 trường đại học

OpenAI công bố Lớp ChatGPT Futures đầu tiên của năm 2026, gồm 26 sinh viên đang học từ hơn 20 trường đại học hàng đầu, nhận 10.000 USD tiền trợ cấp cho mỗi người và quyền truy cập vào các mô hình tiên tiến. Nhóm sinh viên này bắt đầu nhập học vào mùa thu 2022, cùng lớn lên với ChatGPT; lĩnh vực nghiên cứu bao gồm lập bản đồ các vật thể trong không gian, phát hiện người sống sót sau thảm họa, bảo tồn ngôn ngữ đang đứng trước nguy cơ biến mất, chăm sóc sức khỏe, và nhiều mảng khác. Mục tiêu là dùng AI để giải quyết các nhu cầu cụ thể của con người, đồng thời kết nối với việc xây dựng hạ tầng cho thế hệ nhà sáng tạo mới.

ChainNewsAbmedia29phút trước

FLock.io Tạo điều kiện cho hợp tác nghiên cứu giữa Trung tâm AI Sarawak và Đại học Cambridge trong tuần này

Theo Foresight News, FLock.io đã hỗ trợ một hợp tác nghiên cứu mới giữa Trung tâm Nghiên cứu Trí tuệ Nhân tạo Sarawak (SAIC) của Malaysia và Đại học Cambridge trong tuần này. Quan hệ đối tác này sẽ mở rộng hợp tác từ cơ sở hạ tầng kỹ thuật sang nghiên cứu kinh tế, thiết kế chính sách và

GateNews41phút trước

Apple 2,5 tỷ USD dàn xếp, chấm dứt vụ kiện tập thể người tiêu dùng; mỗi người có thể nhận tối đa 95 USD tiền bồi thường

Apple đồng ý giải quyết các cáo buộc không đúng sự thật về quảng cáo AI, với tổng số tiền đạt 250 triệu USD. Nếu tòa án phê chuẩn, người tiêu dùng Mỹ mua iPhone được chỉ định tại Mỹ trong thời gian này có thể nhận bồi thường tối đa 95 USD cho mỗi máy, bao gồm iPhone 16, 16 Plus, 16 Pro, 16 Pro Max và cả iPhone 15 Pro/Pro Max. Nguyên đơn cho rằng việc quảng cáo biến Siri thành một bước đột phá về AI, nhưng trên thực tế chức năng không đạt như cam kết; Apple thì cho rằng tính năng được triển khai theo từng giai đoạn, đã cung cấp nhiều tính năng và không phải là tuyên bố sai sự thật.

ChainNewsAbmedia49phút trước

Phó chủ tịch nghiên cứu của OpenAI chỉ trích quan điểm mà họ cho là của Anthropic rằng chỉ có họ mới có thể xây dựng AI

Theo Aidan Clark, phó giám đốc nghiên cứu mảng huấn luyện của OpenAI, trên nền tảng X gần đây ông đã bày tỏ sự chỉ trích đối với điều mà ông nói rằng mình đã nghe từ các đồng nghiệp của Anthropic: quan điểm cho rằng chỉ mỗi Anthropic mới đủ năng lực để được tin tưởng trong việc xây dựng AI. Clark lập luận rằng việc có nhiều tổ chức

GateNews49phút trước

FIS và Anthropic phát triển các tác nhân AI để chống rửa tiền, triển khai cho BMO và Amalgamated Bank trong nửa cuối năm 2026

FIS và Anthropic đang phát triển các tác nhân AI nhằm tự động hóa điều tra tội phạm tài chính, bắt đầu với các hoạt động chống rửa tiền. Tác nhân AI về Tội phạm Tài chính sẽ trích xuất dữ liệu từ các hệ thống ngân hàng, đánh giá các giao dịch dựa trên các kiểu hình (typologies) đã biết và hỗ trợ các điều tra viên trong việc rà soát al

GateNews1giờ trước
Bình luận
0/400
Không có bình luận