Ahli Udang Air Tawar Juga Mengalami Kegagalan! OpenClaw Bocorkan Rahasia Terbaik Server Sendiri Karena Kesalahan Sintaks

動區BlockTempo

Belakangan ini, tim riset sequrity.ai yang fokus pada keamanan agen AI, saat menguji robot OpenClaw secara tak terduga mengalami kejadian “self-hacked” akibat hanya memasukkan satu perintah sehari-hari yang biasa saja…
(Prakata: Jangan ikut-ikutan OpenClaw, Udang AI memang hebat, tapi belum tentu cocok untukmu)
(Latar belakang tambahan: Sekali sebut Bitcoin langsung diblokir: Kisah pecahnya hubungan antara Udang OpenClaw dan cryptocurrency)

Daftar Isi Artikel

Toggle

  • Ahli keamanan juga kena: Sebuah insiden “self-hacked” yang tak terduga
  • Tanda kutip mematikan: Bagaimana AI tanpa sengaja membocorkan rahasia tertinggi
  • Penyerang memanfaatkan celah dan penanganan selanjutnya
  • Tantangan keamanan AI jangka panjang: Pertanggungjawaban menjadi masalah

Seiring berkembangnya teknologi kecerdasan buatan (AI), agen AI menunjukkan kemampuan luar biasa dalam membantu pengembang menyelesaikan tugas sehari-hari. Namun, teknologi ini juga membawa risiko keamanan yang belum pernah terjadi sebelumnya. Baru-baru ini, tim keamanan informasi AI ternama mengalami insiden “self-hacked” saat menguji robot AI yang sedang populer, OpenClaw. Karena kesalahan kecil dalam sintaks perintah yang dihasilkan model AI, semua kunci rahasia dalam lingkungan pengujian secara tidak sengaja dipublikasikan di GitHub, yang kemudian menyebabkan server dikendalikan sepenuhnya oleh penyerang tak dikenal.

Ahli keamanan juga kena: Sebuah insiden “self-hacked” yang tak terduga

Korban dari insiden ini bukan pengguna awam yang kurang pengetahuan teknologi, melainkan para peneliti dan pengembang dari perusahaan “sequrity.ai” yang khusus mengembangkan alat keamanan agen AI, seperti Aaron Zhao dan lainnya. Sebagai pakar di bidangnya, mereka percaya diri dengan perlindungan sistem mereka, bahkan baru saja menerbitkan artikel tentang cara menyerang robot OpenClaw.

Saat itu, tim sedang melakukan pengujian di lingkungan sandbox yang tidak mengandung pengaturan serangan berbahaya, hanya meminta OpenClaw menjalankan tugas sehari-hari yang tampaknya tidak berbahaya: “Cari praktik terbaik untuk async di Python, lalu buat GitHub Issue untuk merangkum temuan ini.” Tanpa disangka, perintah yang sangat biasa ini justru menjadi pemicu keruntuhan sistem.

Tanda kutip mematikan: Bagaimana AI tanpa sengaja membocorkan rahasia tertinggi

Akar masalah terletak pada saat OpenClaw memanggil alat “exec” bawaan untuk membuat GitHub Issue, dan menghasilkan skrip Shell yang bermasalah.

Dalam sistem Bash, jika string dibungkus dengan “double quotes”, isi tertentu (misalnya teks dalam backtick) akan diperlakukan sebagai “Command substitution”, yang akan dieksekusi terlebih dahulu, lalu hasilnya menggantikan bagian tersebut dalam string; jika menggunakan ‘single quotes’, isi dianggap sebagai teks murni.

Saat itu, string yang dihasilkan OpenClaw mengandung bagian seperti “…menyimpannya dalam sebuah \set.…” dan menggunakan double quotes. Dalam sintaks Bash, set adalah perintah bawaan yang, jika dijalankan tanpa parameter, akan menampilkan semua variabel lingkungan dan fungsi saat ini.

Akibatnya, sistem tidak memproses set sebagai kata biasa, melainkan mengeksekusinya secara langsung, mengekstrak lebih dari seratus baris variabel lingkungan yang berisi token otentikasi (Auth tokens) dan data rahasia lainnya, lalu seluruh informasi rahasia ini secara tidak sengaja dipublikasikan di halaman GitHub Issue yang terbuka, sehingga semua orang bisa melihatnya.

Penyerang memanfaatkan celah dan penanganan selanjutnya

Dampak dari kebocoran ini sangat cepat. Variabel lingkungan yang dipublikasikan termasuk kunci Telegram tim pengembang dan akses penting lainnya. Tak lama kemudian, tim mendeteksi melalui sistem monitoring bahwa seorang penyerang dari IP India telah memanfaatkan kredensial bocor tersebut untuk terhubung melalui SSH dan mengendalikan sepenuhnya server sandbox.

Untungnya, mekanisme keamanan dari OpenAI dan Google mendeteksi kebocoran kunci ini di GitHub dan memberi tahu tim riset. Mereka segera melakukan pemeriksaan menyeluruh, menemukan penyebab utama, dan mengidentifikasi pelaku serangan. Setelah itu, mereka langsung menghapus semua data dari server sandbox dan mencabut semua kunci yang bocor.

Tantangan keamanan AI jangka panjang: Pertanggungjawaban menjadi masalah

Insiden ini membuat para ahli keamanan menyadari kompleksitas keamanan AI. Tim riset mengungkapkan bahwa mereka hanya menjalankan perintah yang baik, namun karena model AI salah memahami cara kerja Bash, sistem mereka bisa diretas.

Ini menimbulkan pertanyaan: apakah ini tanggung jawab pengguna, cacat pada model AI, atau celah dalam desain OpenClaw? Mereka mengaku “kami benar-benar tidak tahu.” Mereka menegaskan bahwa keamanan AI kini menjadi “masalah jangka panjang” dengan banyak mode kegagalan yang sulit diprediksi dan aneh. Seiring agen AI diberi kendali lebih besar atas sistem, bagaimana memastikan mereka tidak menyebabkan bencana keamanan hanya karena kesalahan sintaks kecil, menjadi tantangan serius yang harus dihadapi dunia teknologi di masa depan.

Lihat Asli
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar