Đồng sáng lập Ethereum Vitalik Buterin đã trình bày chi tiết thiết lập AI cá nhân của mình trong một bài đăng blog mới, mô tả cấu hình của ông vừa là “riêng tư” vừa là “an toàn.” Buterin cho biết ông chạy toàn bộ thiết lập trí tuệ nhân tạo của mình trên phần cứng cục bộ, và đã xây dựng các công cụ tùy chỉnh xung quanh mô hình ngôn ngữ lớn (LLM) để ngăn các tác nhân AI của ông gửi tin nhắn hoặc chuyển tiền mã hóa mà không có sự phê duyệt của con người. “Xác thực hai yếu tố mới là con người và LLM,” ông viết. Bài đăng, được công bố vào thứ Tư, đánh dấu một bước đi xa hơn so với các kêu gọi trước đây của Buterin về AI bảo vệ quyền riêng tư. Vào tháng Hai, ông đã phác thảo lộ trình Ethereum-AI theo bốn mảng, bao gồm việc sử dụng AI riêng tư, thị trường dành cho tác nhân và quản trị. Nhưng bài đăng mới này đi xa hơn, cung cấp cái nhìn chi tiết về cách ông thực sự tự triển khai những nguyên tắc đó. Buterin chạy mô hình mã nguồn mở Qwen3.5:35B cục bộ thông qua llama-server. Và sau khi thử nghiệm nhiều thiết lập khác nhau, ông thích dùng một chiếc laptop có GPU Nvidia 5090, đạt 90 token mỗi giây. Ông bổ sung rằng tốc độ đó đủ nhanh để cảm thấy có thể sử dụng được.
Ông lưu một bản sao đầy đủ các bài viết Wikipedia và tài liệu kỹ thuật trên máy của mình để giảm tần suất ông cần truy vấn các công cụ tìm kiếm bên ngoài, mà ông xem đó là một lỗ hổng về quyền riêng tư. Tiết lộ liên quan nhiều nhất đến lĩnh vực crypto là cách ông gắn AI với ví Ethereum và các tài khoản nhắn tin của mình. Buterin viết rằng ông đã xây dựng và công khai mã nguồn một daemon nhắn tin cho phép tác nhân AI của ông đọc tự do các tin nhắn Signal và email, nhưng hạn chế các tin nhắn gửi đi chỉ dành cho chính ông trừ khi người dùng phê duyệt thủ công trước. Ông khuyên các đội ngũ đang xây dựng các công cụ ví Ethereum kết nối với AI hãy áp dụng kiến trúc tương tự, với các giao dịch tự động bị giới hạn ở mức $100 mỗi ngày và bất kỳ khoản nào vượt quá mức đó sẽ cần có xác nhận.
Cách tiếp cận này phù hợp với cách Buterin đã quản lý các khoản nắm giữ crypto của mình. Ông giữ 90% số tiền của mình trong một ví Safe dạng multisig, phân phối các khóa cho các liên hệ được tin cậy để không có bất kỳ một cá nhân nào trở thành điểm gây lỗi duy nhất. Các rào chắn an toàn cho AI dường như là sự mở rộng cùng một triết lý đó sang bối cảnh tác nhân. Buterin bắt đầu bài đăng blog mới bằng cách trích dẫn các nhà nghiên cứu bảo mật, những người phát hiện rằng khoảng 15% các kỹ năng được xây dựng cho OpenClaw, hiện là kho lưu trữ GitHub phát triển nhanh nhất trong lịch sử, có chứa các hướng dẫn độc hại, với một số vụ việc âm thầm trích xuất dữ liệu người dùng mà không có bất kỳ dấu hiệu nào cho người dùng biết. “Tôi xuất phát từ một tư duy rằng mình thực sự sợ hãi rằng ngay khi chúng ta cuối cùng đã tiến được một bước về quyền riêng tư nhờ việc phổ biến hóa mã hóa đầu-cuối và ngày càng nhiều phần mềm ưu tiên chạy cục bộ (local-first), thì chúng ta đang đứng trước nguy cơ lùi lại 10 bước bằng cách bình thường hóa việc nạp toàn bộ cuộc đời của bạn cho AI dựa trên đám mây,” ông viết trong bài đăng.