Menurut “Laporan Studi Kebijakan Aktivasi Industri Web 3.0”, beberapa analisis menunjukkan bahwa penyebaran cepat kecerdasan buatan tidak hanya memimpin inovasi di industri, tetapi juga secara paralel memperbesar efek samping yang mengikis kepercayaan masyarakat. Khususnya, kasus penyalahgunaan teknologi seperti deepfake dan phishing suara telah menjadi kenyataan, dan semakin banyak orang khawatir tentang ketergantungan berlebihan terhadap AI serta kesenjangan aplikasi yang sedang memberikan dampak negatif pada struktur sosial secara keseluruhan.
Profesor Yoon Seok-bin dari Universitas Seokgang dalam laporan tersebut mendefinisikan esensi dari efek samping AI sebagai “bukan hanya cacat teknologi, tetapi juga semua dampak negatif yang disebabkan oleh penyalahgunaan dan penyalahgunaan oleh manusia.” Laporan ini secara khusus memfokuskan pada tiga aspek, yaitu “peningkatan kesenjangan digital”, “ketergantungan berlebihan terhadap digital”, dan “kejahatan serta tindakan ilegal”.
Pertama, analisis menunjukkan bahwa peningkatan kesenjangan digital tercermin dalam: struktur biaya dan akses yang berbeda untuk menggunakan model AI berkinerja tinggi, perbedaan kemampuan pengolahan data antara perusahaan besar dan menengah, serta perbedaan kinerja yang disebabkan oleh ketersediaan data berkualitas tinggi, yang semuanya dapat menyebabkan jarak produktivitas membesar secara eksponensial. Misalnya, kelompok pengguna yang terbatas dalam penggunaan alat AI berbayar secara tak terhindarkan akan tertinggal dalam hal produktivitas otomatisasi.
Ketergantungan berlebihan terhadap digital terkait dengan penurunan kemampuan berpikir manusia yang melekat. Ini termasuk kelelahan dan tekanan akibat pekerjaan berulang seperti verifikasi dan modifikasi hasil otomatis AI, bahkan hingga terjebak dalam struktur “tidak bisa bekerja tanpa AI”. Khususnya, fenomena “penurunan keterampilan” dianggap sebagai faktor risiko yang secara independen dari perkembangan AI, yang melemahkan kemampuan manusia.
Masalah yang lebih besar adalah penyalahgunaan AI untuk tujuan kejahatan. Laporan memperingatkan bahwa kasus kejahatan seksual menggunakan teknologi deepfake, penipuan dengan menyamar sebagai CEO perusahaan, dan pemalsuan bukti telah menjadi kenyataan, dan “fenomena pengenceran kebenaran” semakin memburuk, membuat penilaian keaslian informasi semakin sulit. Teknologi sintesis suara berbasis AI membuat phishing suara menjadi lebih canggih, sementara manipulasi opini berbasis target mikro dapat menjadi faktor bencana dalam penyebaran berita palsu dan memicu perpecahan sosial.
Berdasarkan hal ini, laporan juga secara spesifik mengusulkan solusi teknologi. “Laporan Studi Kebijakan Aktivasi Industri Web 3.0” menyarankan, selain meningkatkan algoritma deteksi deepfake, harus secara wajib memperkenalkan standar C2PA dan watermark digital yang dapat memverifikasi sumber konten. Selain itu, analisis laporan menunjukkan bahwa membangun sistem kepercayaan digital berbasis Web 3.0 melalui otentikasi identitas terdistribusi, bukti nol pengetahuan, dan otentikasi konten berbasis blockchain sedang menjadi solusi utama.
Dalam aspek kebijakan, permintaan untuk memperkuat hukuman pidana terhadap penyebaran deepfake, memperjelas tanggung jawab operator platform, dan mendorong pembangunan infrastruktur AI publik semakin meningkat. Pada saat yang sama, ada pendapat yang menekankan perlunya pendidikan literasi digital yang mendesak untuk semua generasi, mulai dari remaja hingga dewasa.
Melalui laporannya, Profesor Yoon Seok-bin menegaskan bahwa selain solusi teknologi, pendidikan etika, tata kelola kebijakan, serta kolaborasi antara industri, akademisi, dan masyarakat sipil juga sangat penting. Jika efek samping AI dibiarkan tanpa pengawasan, bukan hanya kepercayaan terhadap teknologi yang berisiko runtuh, tetapi juga demokrasi digital dan tatanan ekonomi dapat terancam.
Arah akhirnya bukanlah untuk membatasi kecepatan perkembangan teknologi, melainkan menuju pembentukan “norma berpusat manusia” untuk memanfaatkan teknologi secara adil dan bertanggung jawab. Laporan ini menyimpulkan bahwa agar AI dapat menjadi alat kemakmuran masyarakat, perlu secara paralel mendorong regulasi yang fleksibel, pembangunan sistem koordinasi, dan penciptaan ekosistem kepercayaan yang berkelanjutan.