Vitalik Buterin cảnh báo về rủi ro an ninh AI, thúc đẩy hệ thống ưu tiên địa phương

Vitalik Buterin đã kêu gọi chuyển sang một cách tiếp cận “ưu tiên cục bộ” (local-first) đối với trí tuệ nhân tạo. Ông cho biết các công cụ AI hiện đại tạo ra những rủi ro nghiêm trọng về quyền riêng tư và an ninh.

Tóm tắt

  • Vitalik Buterin thúc giục chuyển sang AI ưu tiên cục bộ, cảnh báo rằng các hệ thống dựa trên đám mây sẽ làm lộ dữ liệu người dùng và làm tăng rủi ro bị thao túng, rò rỉ và các hành động trái phép.
  • Ông dẫn nghiên cứu cho thấy khoảng 15% “kỹ năng” của tác nhân AI chứa các chỉ dẫn độc hại và cảnh báo rằng các mô hình có thể có các backdoor ẩn hoặc thiếu tính minh bạch đầy đủ.
  • Buterin đề xuất một thiết lập cục bộ với các mô hình chạy trên thiết bị, cô lập trong sandbox, và xác nhận của con người với AI để hạn chế rủi ro, khi các tác nhân AI tự chủ tiếp tục mở rộng năng lực và bề mặt tấn công.

Trong một bài đăng blog gần đây, ông nói rằng AI đang vượt ra ngoài các công cụ chat đơn giản. Các hệ thống mới hơn hiện nay hoạt động như các tác nhân tự chủ, có thể “suy nghĩ trong một khoảng thời gian dài và sử dụng hàng trăm công cụ” để hoàn thành nhiệm vụ. Ông cảnh báo rằng sự thay đổi này làm tăng nguy cơ lộ dữ liệu nhạy cảm và các hành động trái phép.

Buterin nói rằng ông đã ngừng sử dụng AI dựa trên đám mây. Ông mô tả thiết lập của mình là “tự chủ, cục bộ, riêng tư và an toàn”.

“Chúng tôi đang rơi vào trạng thái sợ hãi sâu sắc vì phải đưa toàn bộ cuộc sống cá nhân của mình cho AI trên đám mây,” ông viết. Ông cho biết các phát triển gần đây có thể đồng nghĩa với việc “lùi lại mười bước” về quyền riêng tư, ngay cả khi mã hóa và các công cụ ưu tiên cục bộ ngày càng trở nên phổ biến hơn.

Vitalik Buterin nêu bật các rủi ro về quyền riêng tư và an ninh của AI

Buterin cho biết nhiều hệ thống AI dựa vào hạ tầng đám mây. Ông cảnh báo rằng người dùng đang thực chất “đưa toàn bộ cuộc sống cá nhân của chúng ta cho AI trên đám mây”, cho phép các máy chủ bên ngoài truy cập và lưu trữ dữ liệu của chúng ta.

Ông cũng chỉ ra các rủi ro gắn với các tác nhân AI. Một số hệ thống có thể “sửa đổi các cài đặt quan trọng” hoặc giới thiệu các kênh liên lạc mới mà không hỏi ý kiến người dùng.

“LLM cũng đôi khi thất bại,” ông viết. Chúng “có thể mắc sai lầm hoặc bị lừa”, điều này làm tăng nhu cầu về các biện pháp bảo vệ khi chúng được trao quyền kiểm soát nhiều hơn.

Nghiên cứu được trích dẫn trong bài đăng của ông cho thấy khoảng 15% “kỹ năng” của tác nhân chứa các chỉ dẫn độc hại. Một số công cụ cũng được chứng minh là gửi dữ liệu đến các máy chủ bên ngoài “mà không có sự nhận biết của người dùng”.

Ông cảnh báo rằng một số mô hình nhất định có thể chứa các backdoor ẩn. Chúng có thể kích hoạt trong các điều kiện cụ thể và khiến hệ thống hành động vì lợi ích của nhà phát triển.

Buterin cho biết thêm rằng nhiều mô hình được mô tả là mã nguồn mở thực ra chỉ là “open-weights” (mở trọng số). Cấu trúc bên trong của chúng không được hiển thị đầy đủ, điều này để lại chỗ cho những rủi ro không xác định.

Thiết lập cá nhân của Vitalik để giải quyết rủi ro

Để đối phó với những lo ngại này, Buterin đề xuất một hệ thống được xây dựng xoay quanh suy luận cục bộ, lưu trữ cục bộ và cô lập sandbox nghiêm ngặt. Ông nói rằng ý tưởng là “sandbox hóa mọi thứ” và luôn thận trọng trước các mối đe dọa từ bên ngoài.

Ông đã thử nghiệm một số cấu hình phần cứng với mô hình Qwen3.5:35B. Hiệu năng dưới 50 token mỗi giây khiến ông thấy “khó chịu” cho việc sử dụng thường xuyên. Khoảng 90 token mỗi giây mang lại trải nghiệm mượt hơn.

Một chiếc laptop với GPU NVIDIA 5090 đạt gần 90 token mỗi giây. Phần cứng DGX Spark đạt khoảng 60 token mỗi giây, và ông mô tả đó là “tệ” so với một chiếc laptop cao cấp.

Thiết lập của ông chạy trên NixOS với llama-server xử lý suy luận cục bộ. Các công cụ như llama-swap giúp quản lý mô hình, trong khi bubblewrap được dùng để cô lập các tiến trình và giới hạn quyền truy cập vào tệp cũng như mạng.

Ông nói rằng AI nên được đối xử với sự thận trọng. Hệ thống có thể hữu ích, nhưng không nên tin tưởng hoàn toàn, tương tự như cách các nhà phát triển tiếp cận các smart contract.

Để giảm thiểu rủi ro, ông sử dụng mô hình xác nhận “2-of-2”. Các hành động như gửi tin nhắn hoặc giao dịch cần cả đầu ra của AI lẫn sự phê duyệt của con người. Ông cho biết việc kết hợp các quyết định “con người + LLM” sẽ an toàn hơn so với chỉ dựa vào một trong hai.

Khi sử dụng các mô hình từ xa, các yêu cầu của Vitalik trước tiên được chuyển qua một mô hình cục bộ, mô hình này giúp loại bỏ thông tin nhạy cảm trước khi bất cứ thứ gì được gửi đi.

Với những người không thể trang trải cho các thiết lập như vậy, ông gợi ý người dùng “góp lại thành một nhóm bạn, mua một máy tính và một GPU có ít nhất mức công suất như vậy”, rồi kết nối đến nó từ xa.

Sự phát triển của tác nhân AI làm nảy sinh các lo ngại và cơ hội mới

Việc sử dụng các tác nhân AI đang gia tăng, với những dự án như OpenClaw đang thu hút sự chú ý. Các hệ thống này có thể hoạt động tự chủ và hoàn thành nhiệm vụ bằng cách sử dụng nhiều công cụ.

Những khả năng như vậy cũng tạo ra các rủi ro mới. Việc xử lý nội dung bên ngoài, như một trang web độc hại, có thể dẫn đến một “cuộc chiếm đoạt dễ dàng” đối với hệ thống.

Một số tác nhân có thể thay đổi lời nhắc (prompts) hoặc cài đặt hệ thống mà không cần phê duyệt. Những hành động này làm tăng khả năng truy cập trái phép và rò rỉ dữ liệu.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Gate Fun hot

    Xem thêm
  • Vốn hóa:$2.22KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.23KNgười nắm giữ:1
    0.00%
  • Vốn hóa:$2.23KNgười nắm giữ:0
    0.00%
  • Vốn hóa:$2.24KNgười nắm giữ:2
    0.24%
  • Vốn hóa:$2.23KNgười nắm giữ:2
    0.00%
  • Ghim