Biaya Pembuatan Berita Palsu Berbasis AI Hanya 13 Won, 4 Detik: Konferensi Keamanan Korea

CryptoFrontier

Pada 16 April 2026, Ko Woo-young, peneliti senior di National Security Technology Institute milik Korea Selatan (NSTI), menyampaikan temuan pada Konferensi Keamanan Jaringan Informasi dan Komunikasi ke-32 (NetSec-KR 2026) di Seoul, mengungkapkan bahwa berita palsu buatan AI dapat diproduksi dengan biaya dan kecepatan yang sangat rendah dalam. Menurut presentasi Ko, membuat berita palsu menggunakan AI generatif menelan rata-rata 13 won dan membutuhkan 4 detik, dengan 12 butir berita palsu memerlukan 155 won dan 46 detik rata-rata. Ko menekankan bahwa meluasnya disinformasi yang dihasilkan AI dan komentar berbahaya yang dirancang untuk memanipulasi opini publik telah menjadi ancaman kritis bagi masyarakat.

Disinformasi Hasil AI dan Dampak Sosial

Ko menyoroti bahwa seiring kemampuan AI generatif semakin sering disalahgunakan, taktik penyalahgunaan utama melibatkan manipulasi opini dan informasi. Ia menekankan bahwa dengan biaya dan volume berita palsu serta komentar palsu yang menjadi begitu rendah dan melimpah, masyarakat telah mencapai titik di mana membedakan kebenaran dari kepalsuan menjadi sangat sulit.

Menurut analisis Ko, ketika informasi palsu menjadi lazim di mana-mana, anggota masyarakat menjadi lelah oleh disinformasi dan mulai kehilangan minat pada realitas. Fenomena ini membuat orang mempertanyakan bahkan informasi yang autentik. Ko mencatat bahwa “penegakan hukuman untuk berita palsu secara hukum sulit dilakukan kecuali hal itu menghasilkan keuntungan finansial,” dan menekankan bahwa “teknologi AI generatif berkembang terlalu cepat, dan peningkatan institusional diperlukan.”

Ko Woo-young mempresentasikan risiko berita palsu buatan AI di NetSec-KR 2026

Analisis Malware Berbasis AI dan Deteksi

Choi Seok-woo, Direktur NSTI, mempresentasikan “Teknologi Analisis Malware Berbasis AI” pada sesi yang sama. Menurut temuan Choi, ketika AI mulai digunakan untuk menghasilkan malware, sekitar 450.000 sampel malware baru diciptakan setiap hari. Total kumulatif malware telah melampaui 1 miliar kejadian.

Sebagai respons terhadap ancaman yang terus meningkat ini, Choi mendorong pengembangan solusi yang digerakkan oleh AI, termasuk sistem dukungan analitis berbasis AI, agen analisis otonom berbasis model bahasa besar (LLM), serta alat deobfuscation otomatis.

Choi Seok-woo mempresentasikan kebutuhan teknologi analisis malware berbasis AI

Deteksi Kerentanan Berbasis LLM: Batasan Saat Ini

Ji Hyun-seok, Peneliti Senior di NSTI, mempresentasikan “Era Deteksi Kerentanan Keamanan Perangkat Lunak Berbasis LLM.” Penelitian Ji menelaah bagaimana LLM mendeteksi kerentanan keamanan dan menemukan keterbatasan yang signifikan pada kemampuan saat ini.

Ji menyatakan: “Dalam kasus-kasus terbaru, meskipun AI telah mengidentifikasi banyak kerentanan, hasil analisis menunjukkan bahwa ini sebenarnya tidak terjadi. Deteksi kerentanan yang efektif hanya mungkin ketika LLM dan model AI diberi alat khusus untuk deteksi kerentanan.” Menurut Ji, LLM saat ini menghadapi beberapa kendala, termasuk keterbatasan dalam menangani basis kode yang besar, masalah ketergantungan data, dan penalaran yang tidak dapat diandalkan.

Ji memproyeksikan bahwa sinergi akan dimaksimalkan ketika analis keamanan yang terampil dan mampu mengidentifikasi kerentanan secara langsung dapat memanfaatkan alat LLM. Namun, Ji menekankan bahwa “deteksi kerentanan LLM belum sepenuhnya lengkap. Metode yang lebih baik untuk menemukan kerentanan harus dieksplorasi.” Presentasi tersebut menegaskan bahwa deteksi kerentanan berbasis LLM belum dapat dilakukan secara efektif hanya oleh AI, dan keahlian manusia tetap penting untuk analisis keamanan yang andal.

Ji Hyun-seok mempresentasikan penelitian deteksi kerentanan berbasis LLM

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar