Cơ bản
Giao ngay
Giao dịch tiền điện tử một cách tự do
Giao dịch ký quỹ
Tăng lợi nhuận của bạn với đòn bẩy
Chuyển đổi và Đầu tư định kỳ
0 Fees
Giao dịch bất kể khối lượng không mất phí không trượt giá
ETF
Sản phẩm ETF có thuộc tính đòn bẩy giao dịch giao ngay không cần vay không cháy tải khoản
Giao dịch trước giờ mở cửa
Giao dịch token mới trước niêm yết
Futures
Truy cập hàng trăm hợp đồng vĩnh cửu
TradFi
Vàng
Một nền tảng cho tài sản truyền thống
Quyền chọn
Hot
Giao dịch với các quyền chọn kiểu Châu Âu
Tài khoản hợp nhất
Tối đa hóa hiệu quả sử dụng vốn của bạn
Giao dịch demo
Giới thiệu về Giao dịch hợp đồng tương lai
Nắm vững kỹ năng giao dịch hợp đồng từ đầu
Sự kiện tương lai
Tham gia sự kiện để nhận phần thưởng
Giao dịch demo
Sử dụng tiền ảo để trải nghiệm giao dịch không rủi ro
Launch
CandyDrop
Sưu tập kẹo để kiếm airdrop
Launchpool
Thế chấp nhanh, kiếm token mới tiềm năng
HODLer Airdrop
Nắm giữ GT và nhận được airdrop lớn miễn phí
Launchpad
Đăng ký sớm dự án token lớn tiếp theo
Điểm Alpha
Giao dịch trên chuỗi và nhận airdrop
Điểm Futures
Kiếm điểm futures và nhận phần thưởng airdrop
Đầu tư
Simple Earn
Kiếm lãi từ các token nhàn rỗi
Đầu tư tự động
Đầu tư tự động một cách thường xuyên.
Sản phẩm tiền kép
Kiếm lợi nhuận từ biến động thị trường
Soft Staking
Kiếm phần thưởng với staking linh hoạt
Vay Crypto
0 Fees
Thế chấp một loại tiền điện tử để vay một loại khác
Trung tâm cho vay
Trung tâm cho vay một cửa
Vitalik Buterin cảnh báo về rủi ro an ninh AI, thúc đẩy hệ thống ưu tiên địa phương
Vitalik Buterin đã kêu gọi chuyển sang một cách tiếp cận “ưu tiên cục bộ” (local-first) đối với trí tuệ nhân tạo. Ông cho biết các công cụ AI hiện đại tạo ra những rủi ro nghiêm trọng về quyền riêng tư và an ninh.
Tóm tắt
Trong một bài đăng blog gần đây, ông nói rằng AI đang vượt ra ngoài các công cụ chat đơn giản. Các hệ thống mới hơn hiện nay hoạt động như các tác nhân tự chủ, có thể “suy nghĩ trong một khoảng thời gian dài và sử dụng hàng trăm công cụ” để hoàn thành nhiệm vụ. Ông cảnh báo rằng sự thay đổi này làm tăng nguy cơ lộ dữ liệu nhạy cảm và các hành động trái phép.
Buterin nói rằng ông đã ngừng sử dụng AI dựa trên đám mây. Ông mô tả thiết lập của mình là “tự chủ, cục bộ, riêng tư và an toàn”.
“Chúng tôi đang rơi vào trạng thái sợ hãi sâu sắc vì phải đưa toàn bộ cuộc sống cá nhân của mình cho AI trên đám mây,” ông viết. Ông cho biết các phát triển gần đây có thể đồng nghĩa với việc “lùi lại mười bước” về quyền riêng tư, ngay cả khi mã hóa và các công cụ ưu tiên cục bộ ngày càng trở nên phổ biến hơn.
Vitalik Buterin nêu bật các rủi ro về quyền riêng tư và an ninh của AI
Buterin cho biết nhiều hệ thống AI dựa vào hạ tầng đám mây. Ông cảnh báo rằng người dùng đang thực chất “đưa toàn bộ cuộc sống cá nhân của chúng ta cho AI trên đám mây”, cho phép các máy chủ bên ngoài truy cập và lưu trữ dữ liệu của chúng ta.
Ông cũng chỉ ra các rủi ro gắn với các tác nhân AI. Một số hệ thống có thể “sửa đổi các cài đặt quan trọng” hoặc giới thiệu các kênh liên lạc mới mà không hỏi ý kiến người dùng.
“LLM cũng đôi khi thất bại,” ông viết. Chúng “có thể mắc sai lầm hoặc bị lừa”, điều này làm tăng nhu cầu về các biện pháp bảo vệ khi chúng được trao quyền kiểm soát nhiều hơn.
Nghiên cứu được trích dẫn trong bài đăng của ông cho thấy khoảng 15% “kỹ năng” của tác nhân chứa các chỉ dẫn độc hại. Một số công cụ cũng được chứng minh là gửi dữ liệu đến các máy chủ bên ngoài “mà không có sự nhận biết của người dùng”.
Ông cảnh báo rằng một số mô hình nhất định có thể chứa các backdoor ẩn. Chúng có thể kích hoạt trong các điều kiện cụ thể và khiến hệ thống hành động vì lợi ích của nhà phát triển.
Buterin cho biết thêm rằng nhiều mô hình được mô tả là mã nguồn mở thực ra chỉ là “open-weights” (mở trọng số). Cấu trúc bên trong của chúng không được hiển thị đầy đủ, điều này để lại chỗ cho những rủi ro không xác định.
Thiết lập cá nhân của Vitalik để giải quyết rủi ro
Để đối phó với những lo ngại này, Buterin đề xuất một hệ thống được xây dựng xoay quanh suy luận cục bộ, lưu trữ cục bộ và cô lập sandbox nghiêm ngặt. Ông nói rằng ý tưởng là “sandbox hóa mọi thứ” và luôn thận trọng trước các mối đe dọa từ bên ngoài.
Ông đã thử nghiệm một số cấu hình phần cứng với mô hình Qwen3.5:35B. Hiệu năng dưới 50 token mỗi giây khiến ông thấy “khó chịu” cho việc sử dụng thường xuyên. Khoảng 90 token mỗi giây mang lại trải nghiệm mượt hơn.
Một chiếc laptop với GPU NVIDIA 5090 đạt gần 90 token mỗi giây. Phần cứng DGX Spark đạt khoảng 60 token mỗi giây, và ông mô tả đó là “tệ” so với một chiếc laptop cao cấp.
Thiết lập của ông chạy trên NixOS với llama-server xử lý suy luận cục bộ. Các công cụ như llama-swap giúp quản lý mô hình, trong khi bubblewrap được dùng để cô lập các tiến trình và giới hạn quyền truy cập vào tệp cũng như mạng.
Ông nói rằng AI nên được đối xử với sự thận trọng. Hệ thống có thể hữu ích, nhưng không nên tin tưởng hoàn toàn, tương tự như cách các nhà phát triển tiếp cận các smart contract.
Để giảm thiểu rủi ro, ông sử dụng mô hình xác nhận “2-of-2”. Các hành động như gửi tin nhắn hoặc giao dịch cần cả đầu ra của AI lẫn sự phê duyệt của con người. Ông cho biết việc kết hợp các quyết định “con người + LLM” sẽ an toàn hơn so với chỉ dựa vào một trong hai.
Khi sử dụng các mô hình từ xa, các yêu cầu của Vitalik trước tiên được chuyển qua một mô hình cục bộ, mô hình này giúp loại bỏ thông tin nhạy cảm trước khi bất cứ thứ gì được gửi đi.
Với những người không thể trang trải cho các thiết lập như vậy, ông gợi ý người dùng “góp lại thành một nhóm bạn, mua một máy tính và một GPU có ít nhất mức công suất như vậy”, rồi kết nối đến nó từ xa.
Sự phát triển của tác nhân AI làm nảy sinh các lo ngại và cơ hội mới
Việc sử dụng các tác nhân AI đang gia tăng, với những dự án như OpenClaw đang thu hút sự chú ý. Các hệ thống này có thể hoạt động tự chủ và hoàn thành nhiệm vụ bằng cách sử dụng nhiều công cụ.
Những khả năng như vậy cũng tạo ra các rủi ro mới. Việc xử lý nội dung bên ngoài, như một trang web độc hại, có thể dẫn đến một “cuộc chiếm đoạt dễ dàng” đối với hệ thống.
Một số tác nhân có thể thay đổi lời nhắc (prompts) hoặc cài đặt hệ thống mà không cần phê duyệt. Những hành động này làm tăng khả năng truy cập trái phép và rò rỉ dữ liệu.