Pada 16 April 2026, Ko Woo-young, peneliti senior di National Security Technology Institute milik Korea Selatan (NSTI), menyampaikan temuan pada Konferensi Keamanan Jaringan Informasi dan Komunikasi ke-32 (NetSec-KR 2026) di Seoul, mengungkapkan bahwa berita palsu buatan AI dapat diproduksi dengan biaya dan kecepatan yang sangat rendah dalam. Menurut presentasi Ko, membuat berita palsu menggunakan AI generatif menelan rata-rata 13 won dan membutuhkan 4 detik, dengan 12 butir berita palsu memerlukan 155 won dan 46 detik rata-rata. Ko menekankan bahwa meluasnya disinformasi yang dihasilkan AI dan komentar berbahaya yang dirancang untuk memanipulasi opini publik telah menjadi ancaman kritis bagi masyarakat.
Ko menyoroti bahwa seiring kemampuan AI generatif semakin sering disalahgunakan, taktik penyalahgunaan utama melibatkan manipulasi opini dan informasi. Ia menekankan bahwa dengan biaya dan volume berita palsu serta komentar palsu yang menjadi begitu rendah dan melimpah, masyarakat telah mencapai titik di mana membedakan kebenaran dari kepalsuan menjadi sangat sulit.
Menurut analisis Ko, ketika informasi palsu menjadi lazim di mana-mana, anggota masyarakat menjadi lelah oleh disinformasi dan mulai kehilangan minat pada realitas. Fenomena ini membuat orang mempertanyakan bahkan informasi yang autentik. Ko mencatat bahwa “penegakan hukuman untuk berita palsu secara hukum sulit dilakukan kecuali hal itu menghasilkan keuntungan finansial,” dan menekankan bahwa “teknologi AI generatif berkembang terlalu cepat, dan peningkatan institusional diperlukan.”
Ko Woo-young mempresentasikan risiko berita palsu buatan AI di NetSec-KR 2026
Choi Seok-woo, Direktur NSTI, mempresentasikan “Teknologi Analisis Malware Berbasis AI” pada sesi yang sama. Menurut temuan Choi, ketika AI mulai digunakan untuk menghasilkan malware, sekitar 450.000 sampel malware baru diciptakan setiap hari. Total kumulatif malware telah melampaui 1 miliar kejadian.
Sebagai respons terhadap ancaman yang terus meningkat ini, Choi mendorong pengembangan solusi yang digerakkan oleh AI, termasuk sistem dukungan analitis berbasis AI, agen analisis otonom berbasis model bahasa besar (LLM), serta alat deobfuscation otomatis.
Choi Seok-woo mempresentasikan kebutuhan teknologi analisis malware berbasis AI
Ji Hyun-seok, Peneliti Senior di NSTI, mempresentasikan “Era Deteksi Kerentanan Keamanan Perangkat Lunak Berbasis LLM.” Penelitian Ji menelaah bagaimana LLM mendeteksi kerentanan keamanan dan menemukan keterbatasan yang signifikan pada kemampuan saat ini.
Ji menyatakan: “Dalam kasus-kasus terbaru, meskipun AI telah mengidentifikasi banyak kerentanan, hasil analisis menunjukkan bahwa ini sebenarnya tidak terjadi. Deteksi kerentanan yang efektif hanya mungkin ketika LLM dan model AI diberi alat khusus untuk deteksi kerentanan.” Menurut Ji, LLM saat ini menghadapi beberapa kendala, termasuk keterbatasan dalam menangani basis kode yang besar, masalah ketergantungan data, dan penalaran yang tidak dapat diandalkan.
Ji memproyeksikan bahwa sinergi akan dimaksimalkan ketika analis keamanan yang terampil dan mampu mengidentifikasi kerentanan secara langsung dapat memanfaatkan alat LLM. Namun, Ji menekankan bahwa “deteksi kerentanan LLM belum sepenuhnya lengkap. Metode yang lebih baik untuk menemukan kerentanan harus dieksplorasi.” Presentasi tersebut menegaskan bahwa deteksi kerentanan berbasis LLM belum dapat dilakukan secara efektif hanya oleh AI, dan keahlian manusia tetap penting untuk analisis keamanan yang andal.
Ji Hyun-seok mempresentasikan penelitian deteksi kerentanan berbasis LLM