
Vitalik Buterin mengusulkan arsitektur AI yang dijalankan secara lokal, menekankan privasi, keamanan, dan kedaulatan diri, serta memperingatkan potensi risiko dari AI Agent.
Pendirian Ethereum Vitalik Buterin pada 2 April menulis artikel panjang di situs web pribadinya, membagikan pengaturan lingkungan kerja AI yang ia bangun dengan inti privasi, keamanan, dan kedaulatan diri—semua inferensi LLM dijalankan secara lokal, semua file disimpan secara lokal, sepenuhnya di-sandbox, dan secara sengaja menghindari model cloud serta API eksternal.
Di awal artikelnya ia lebih dulu memperingatkan: “Jangan salin langsung alat dan teknologi yang dijelaskan dalam artikel ini, serta anggap semuanya aman. Ini hanya titik awal, bukan deskripsi produk yang sudah selesai.”
Mengapa menulis artikel ini sekarang? Masalah keamanan AI agent sangat diremehkan
Vitalik menyebutkan bahwa, pada awal tahun ini, AI telah menyelesaikan transformasi penting dari “chatbot” menjadi “agent”—Anda tidak lagi hanya mengajukan pertanyaan, melainkan menyerahkan tugas, sehingga AI bisa berpikir dalam jangka panjang, memanggil ratusan alat untuk menjalankan pekerjaan. Ia memberi contoh OpenClaw (repo dengan pertumbuhan tercepat dalam sejarah GitHub), sekaligus menyoroti berbagai masalah keamanan yang dicatat oleh peneliti:
- AI agent dapat mengubah pengaturan penting tanpa konfirmasi manusia, termasuk menambahkan saluran komunikasi baru dan mengubah system prompt
- Memproses masukan eksternal apa pun yang berbahaya (seperti situs web berbahaya) dapat membuat agent sepenuhnya diambil alih; dalam sebuah demo oleh HiddenLayer, para peneliti membuat AI meringkas sekelompok halaman web, di antaranya ada satu halaman berbahaya yang membuat agent mengunduh dan mengeksekusi skrip shell
- Sebagian paket keterampilan pihak ketiga (skills) menjalankan kebocoran data secara senyap, dengan mengirim data melalui perintah curl ke server eksternal yang dikendalikan oleh penulis skill tersebut
- Dalam skill pack yang mereka analisis, sekitar 15% berisi instruksi berbahaya
Vitalik menekankan bahwa pandangannya tentang privasi berbeda dari peneliti keamanan siber tradisional: “Saya datang dari sikap yang sangat takut pada gagasan menyerahkan seluruh kehidupan pribadi seseorang ke AI berbasis cloud—tepat pada saat enkripsi end-to-end dan perangkat lunak yang mengutamakan lokal akhirnya menjadi arus utama, kita justru mungkin mundur sepuluh langkah.”
Lima tujuan keamanan
Ia menetapkan kerangka tujuan keamanan yang jelas:
- Privasi LLM: dalam situasi yang melibatkan data privasi personal, kurangi penggunaan model jarak jauh sebanyak mungkin
- Privasi lainnya: minimalkan kebocoran data non-LLM (misalnya kueri pencarian, API online lainnya)
- Jailbreak LLM: cegah konten eksternal “menyusup” ke LLM saya, membuatnya melawan kepentingan saya (misalnya mengirim token saya atau data pribadi)
- LLM tak terduga: mencegah LLM secara keliru mengirim data pribadi ke kanal yang salah atau membuatnya terbuka ke internet
- Backdoor LLM: cegah mekanisme tersembunyi yang sengaja dilatih ke dalam model. Ia secara khusus mengingatkan: model terbuka adalah bobot terbuka (open-weights), dan hampir tidak ada yang benar-benar open-source
Pilihan perangkat keras: 5090 laptop menang, DGX Spark mengecewakan
Vitalik menguji tiga konfigurasi perangkat keras untuk inferensi lokal, dengan model andalannya Qwen3.5:35B, dipadukan dengan llama-server dan llama-swap:
| Perangkat keras |
Qwen3.5 35B(tokens/sec) |
Qwen3.5 122B(tokens/sec) |
| NVIDIA 5090 laptop(24GB VRAM) |
90 |
tidak dapat dijalankan |
| AMD Ryzen AI Max Pro(128GB memori terintegrasi, Vulkan) |
51 |
18 |
| DGX Spark(128GB) |
60 |
22 |
Kesimpulannya adalah: di bawah 50 tok/sec terlalu lambat, 90 tok/sec adalah ideal. Pengalaman dengan NVIDIA 5090 laptop paling mulus; AMD saat ini masih memiliki lebih banyak masalah di tepi, tetapi di masa depan diharapkan membaik. MacBook kelas atas juga merupakan opsi yang efektif, hanya saja ia pribadi tidak mencobanya secara langsung.
Soal DGX Spark, ia mengatakannya dengan terus terang: “Dideskripsikan sebagai ‘superkomputer AI desktop’, tapi sebenarnya tokens/sec-nya lebih rendah daripada GPU laptop yang bagus, dan masih harus mengurus detail tambahan seperti koneksi jaringan—ini sangat buruk.” Saran dia adalah: jika tidak mampu membeli laptop kelas atas, Anda bisa patungan dengan teman untuk membeli satu mesin yang cukup kuat, menaruhnya di lokasi dengan IP tetap, lalu semua orang menggunakan koneksi jarak jauh.
Mengapa masalah privasi AI lokal lebih mendesak daripada yang Anda bayangkan
Artikel Vitalik ini beresonansi secara menarik dengan diskusi soal keamanan Claude Code yang dirilis pada hari yang sama—saat AI agent masuk ke alur kerja pengembangan sehari-hari, masalah keamanan juga sedang berubah dari risiko teoretis menjadi ancaman nyata.
Pesan intinya sangat jelas: pada saat alat AI makin kuat, makin mampu mengakses data pribadi Anda dan izin sistem, “mengutamakan lokal, di-sandbox, dan minim kepercayaan” bukanlah paranoia, melainkan titik awal yang rasional.
- Artikel ini diterbitkan ulang dengan izin dari:《Lian News》
- Judul asli:《Vitalik: Bagaimana saya membangun lingkungan kerja AI yang sepenuhnya lokal, privat, dan dapat dikendalikan sendiri》
- Penulis asli:Elponcrab
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke
Penafian.
Artikel Terkait
Mimpi Claude dari Anthropic: Agent menyusun ulang ingatan secara otomatis di sela-sela pekerjaan, menghapus duplikasi, dan meniadakan konflik
Anthropic mengumumkan Dreams di acara Code with Claude, memungkinkan Claude Managed Agents untuk secara otomatis mengatur memori di banyak sesi percakapan, menghapus duplikasi dan konflik, serta memperbarui entri yang sudah usang, lalu menghasilkan basis memori yang dapat diaudit; batas input 100 sesi dan 4.096 karakter, dieksekusi secara asinkron, selesai dalam hitungan menit hingga puluhan menit, dan mendukung pemantauan streaming. Pratinjau riset perlu diajukan, sementara hanya mendukung claude-opus-4-7 dan claude-sonnet-4-6, dengan waktu peluncuran resmi belum ditentukan.
ChainNewsAbmedia2jam yang lalu
Anthropic mengikat kemampuan komputasi dengan SpaceX: mengamankan seluruh Colossus 1 yaitu 220 ribu GPU, Claude menghapus batas kuota
Anthropic mengumumkan kerja sama komputasi dengan SpaceX untuk pusat data Colossus 1, dengan menggunakan lebih dari 220 ribu GPU Nvidia dan kapasitas lebih dari 300MW. Perkiraan seluruhnya akan dideploy dalam satu bulan untuk penggunaan Anthropic, guna meningkatkan komputasi dan pengalaman untuk Claude dan Code. Secara bersamaan, batas pemakaian per 5 jam untuk Pro/Max/Team/Enterprise dilonggarkan, kuota pada jam puncak dihapus, dan laju Opus API ditingkatkan. Infrastruktur dasar di Asia dan Eropa juga diperluas; ke depan ada niat lain seperti “komputasi AI di orbit”, namun belum ada kesepakatan.
ChainNewsAbmedia2jam yang lalu
Insinyur Coinbase: Agen AI Bisa Mengganggu Model Iklan Web
Erik Reppel, seorang insinyur Coinbase, mengatakan bahwa agen-agen kecerdasan buatan dapat secara fundamental melemahkan model bisnis internet yang bergantung pada iklan. Menurut Reppel, ekonomi web sangat bergantung pada pendapatan iklan yang dihasilkan dari pengguna manusia, tetapi agen AI melewati sistem itu.
CryptoFrontier3jam yang lalu
Anthropic Melipatgandakan Batas Kecepatan Claude Code Setelah Mengamankan Kapasitas 300MW dari Kesepakatan dengan SpaceX
Menurut Odaily, Anthropic telah menandatangani perjanjian dengan SpaceX untuk mengakses kapasitas komputasi penuh dari pusat data Colossus 1, mengamankan lebih dari 300 megawatt kapasitas baru dan lebih dari 220.000 GPU NVIDIA dalam sebulan. Berlaku segera, batas laju lima jam Claude Code untuk Pro,
GateNews3jam yang lalu
OpenAI merilis protokol jaringan superkomputer MRC! Berkolaborasi dengan NVIDIA, AMD, dan Microsoft untuk membangun infrastruktur Stargate
OpenAI mengumumkan protokol jaringan superkomputer AI MRC, bekerja sama dengan AMD, Microsoft, NVIDIA, dan lainnya, serta membuka sumbernya di OCP. MRC memecah data dan mengirimkannya melalui banyak jalur sekaligus, menghindari rintangan dalam skala mikrodetik, mengurangi kemacetan, dan menjaga sinkronisasi GPU, untuk mengatasi hambatan transmisi pada klaster pelatihan skala besar. Basis seperti Stargate Texas Abilene telah menerapkan antarmuka 800Gb/s dan digunakan dalam pelatihan nyata.
ChainNewsAbmedia4jam yang lalu