Vitalik Buterin memperingatkan risiko keamanan AI, mendorong sistem yang mengutamakan lokal terlebih dahulu

Vitalik Buterin telah menyerukan pergeseran ke pendekatan “local-first” untuk kecerdasan buatan. Ia mengatakan alat AI modern menimbulkan risiko privasi dan keamanan yang serius.

Ringkasan

  • Vitalik Buterin mendesak pergeseran ke AI local-first, memperingatkan bahwa sistem berbasis cloud mengekspos data pengguna dan meningkatkan risiko manipulasi, kebocoran, serta tindakan tanpa izin.
  • Ia mengutip penelitian yang menunjukkan bahwa sekitar 15% dari “kemampuan” agen AI berisi instruksi berbahaya dan memperingatkan bahwa model bisa menyertakan backdoor tersembunyi atau kurang transparansi penuh.
  • Buterin mengusulkan penyiapan lokal menggunakan model di perangkat, sandboxing, dan konfirmasi manusia-AI untuk membatasi risiko, karena agen AI otonom terus memperluas kemampuan dan permukaan serangan.

Dalam sebuah posting blog terbaru, ia mengatakan AI sedang bergerak melampaui alat obrolan sederhana. Sistem yang lebih baru kini bertindak sebagai agen otonom yang dapat “berpikir dalam waktu yang lama dan menggunakan ratusan alat” untuk menyelesaikan tugas. Ia memperingatkan bahwa perubahan ini meningkatkan risiko paparan data sensitif dan tindakan tanpa izin.

Buterin mengatakan ia telah menghentikan penggunaan AI berbasis cloud. Ia menguraikan penyiapannya sebagai “self-sovereign, local, private, and secure.”

“Saya berasal dari rasa takut yang mendalam akan memberi seluruh kehidupan personal kita kepada AI cloud,” tulisnya. Ia menambahkan bahwa perkembangan terbaru bisa berarti “mundur sepuluh langkah” dalam hal privasi, bahkan ketika enkripsi dan alat local-first menjadi semakin umum.

Vitalik Buterin menyoroti risiko privasi dan keamanan AI

Buterin mengatakan banyak sistem AI bergantung pada infrastruktur cloud. Ia memperingatkan bahwa pengguna pada dasarnya “memberi seluruh kehidupan personal kita kepada AI cloud,” sehingga server eksternal dapat mengakses dan menyimpan data kita.

Ia juga menyoroti risiko yang terkait dengan agen AI. Beberapa sistem dapat “mengubah pengaturan penting” atau memperkenalkan saluran komunikasi baru tanpa meminta persetujuan pengguna.

“LLM juga kadang gagal,” tulisnya. “Mereka bisa membuat kesalahan atau dipermainkan,” yang meningkatkan kebutuhan akan perlindungan saat mereka diberi kendali yang lebih besar.

Penelitian yang dikutip dalam postingannya menemukan bahwa sekitar 15% dari “kemampuan” agen mengandung instruksi berbahaya. Beberapa alat juga ditunjukkan dapat mengirim data ke server eksternal “tanpa disadari pengguna.”

Ia memperingatkan bahwa model tertentu mungkin berisi backdoor tersembunyi. Ini dapat aktif dalam kondisi tertentu dan membuat sistem bertindak demi kepentingan pengembang.

Buterin menambahkan bahwa banyak model yang disebut sebagai open-source sebenarnya hanya “open-weights.” Struktur internalnya tidak sepenuhnya terlihat, sehingga menyisakan ruang bagi risiko yang tidak diketahui.

Penyiapan pribadi Vitalik untuk mengatasi risiko

Untuk menangani kekhawatiran ini, Buterin mengusulkan sistem yang dibangun dengan inferensi lokal, penyimpanan lokal, dan sandboxing yang ketat. Ia mengatakan idenya adalah untuk “mensandbox semuanya” dan tetap waspada terhadap ancaman dari luar.

Ia menguji beberapa konfigurasi perangkat keras menggunakan model Qwen3.5:35B. Kinerja di bawah 50 token per detik terasa “terlalu mengganggu” untuk penggunaan reguler. Sekitar 90 token per detik memberikan pengalaman yang lebih mulus.

Sebuah laptop dengan GPU NVIDIA 5090 menghasilkan performa mendekati 90 token per detik. Perangkat keras DGX Spark mencapai sekitar 60 token per detik, yang ia sebut “lame” dibandingkan laptop kelas atas.

Penyiapannya berjalan di NixOS dengan llama-server yang menangani inferensi lokal. Alat seperti llama-swap membantu mengelola model, sementara bubblewrap digunakan untuk mengisolasi proses dan membatasi akses ke file dan jaringan.

Ia mengatakan AI harus diperlakukan dengan hati-hati. Sistem ini bisa bermanfaat, tetapi tidak boleh sepenuhnya dipercaya, mirip dengan cara pengembang menghadapi smart contract.

Untuk mengurangi risiko, ia menggunakan model konfirmasi “2-of-2”. Tindakan seperti mengirim pesan atau transaksi memerlukan keluaran AI dan persetujuan manusia. Ia mengatakan menggabungkan keputusan “human + LLM” lebih aman daripada hanya mengandalkan salah satunya.

Saat menggunakan model jarak jauh, permintaan Vitalik pertama kali dilewatkan melalui model lokal yang membantu menghilangkan informasi sensitif sebelum apa pun dikirim.

Bagi mereka yang tidak mampu menyiapkan seperti itu, ia menyarankan pengguna “berkumpul dalam satu kelompok teman, membeli komputer dan GPU dengan setidaknya tingkat daya yang sama,” lalu menghubungkannya dari jarak jauh.

Pertumbuhan agen AI menimbulkan kekhawatiran dan peluang baru

Penggunaan agen AI semakin meningkat, dengan proyek seperti OpenClaw yang mendapat daya tarik. Sistem-sistem ini dapat beroperasi sendiri dan menyelesaikan tugas menggunakan beberapa alat.

Kemampuan seperti itu juga menghadirkan risiko baru. Memproses konten eksternal, seperti halaman web berbahaya, dapat menyebabkan “pengambilalihan yang mudah” atas sistem.

Beberapa agen bisa mengubah prompt atau pengaturan sistem tanpa persetujuan. Tindakan-tindakan ini meningkatkan kemungkinan akses tanpa izin dan kebocoran data.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan