Penggunaan kecerdasan buatan oleh Meta untuk mengawasi platformnya menghasilkan volume besar laporan berkualitas rendah yang menyedot sumber daya dan memperlambat penyelidikan pelecehan anak, menurut laporan The Guardian.
Berita ini muncul saat pejabat penegak hukum New Mexico memberi kesaksian minggu lalu bahwa laporan yang dihasilkan AI membanjiri penyelidik dan memperlambat kasus eksploitasi anak.
Petugas dari program Tim Tindak Kejahatan Internet terhadap Anak secara khusus menyebut sistem otomatis Meta, mengatakan mereka menghasilkan ribuan tips yang tidak dapat digunakan setiap bulan yang diteruskan ke penegak hukum.
“Kami menerima banyak tips dari Meta yang sebenarnya sampah,” kata Benjamin Zwiebel, agen khusus dari tim ICAC di New Mexico, saat sidang terhadap perusahaan tersebut.
Petugas ICAC lain, yang berbicara tanpa nama, mengatakan kepada The Guardian bahwa cybertips departemen tersebut meningkat dua kali lipat dari 2024 ke 2025.
“Ini cukup membingungkan karena kami menerima begitu banyak laporan, tetapi kualitas laporan sangat kurang dalam hal kemampuan kami untuk mengambil tindakan serius,” katanya.
Dalam pernyataan yang dibagikan kepada Decrypt, juru bicara Meta mengatakan perusahaan telah lama bekerja sama dengan penegak hukum dan mencatat bahwa Departemen Kehakiman serta Pusat Nasional untuk Anak Hilang & Eksploitasi memuji proses pelaporannya.
“Pada 2024, kami menerima lebih dari 9.000 permintaan darurat dari otoritas AS dan menyelesaikannya dalam rata-rata 67 menit dan bahkan lebih cepat untuk kasus yang melibatkan keselamatan anak dan bunuh diri,” kata juru bicara tersebut.
“Sesuai hukum yang berlaku, kami juga melaporkan gambar eksploitasi seksual anak yang tampak kepada NCMEC dan mendukung mereka dalam memprioritaskan laporan, mulai dari membantu membangun alat manajemen kasus mereka hingga memberi label cybertips agar mereka tahu mana yang mendesak,” tambahnya.
Namun, petugas ICAC mengatakan beberapa laporan yang dikirim oleh Meta tidak bersifat kriminal, sementara yang lain kurang bukti kredibel yang diperlukan untuk melanjutkan kasus.
Peningkatan ini mengikuti Undang-Undang Report Act, yang ditandatangani menjadi undang-undang pada Mei 2024 dan memperluas persyaratan pelaporan untuk mencakup penyalahgunaan yang direncanakan atau akan terjadi, perdagangan seks anak, dan eksploitasi terkait, sambil mewajibkan perusahaan menyimpan bukti lebih lama.
Dari angka-angka
Meta tetap menjadi sumber utama laporan ke CyberTipline NCMEC, menyumbang sekitar dua pertiga dari 20,5 juta tips yang diterima pada 2024, turun dari 36,2 juta pada 2023. Penurunan ini sebagian disebabkan oleh perubahan praktik pelaporan Meta.
Dalam laporan integritas Agustus 2025, Meta menyatakan Facebook, Instagram, dan Threads mengirim lebih dari 2 juta laporan CyberTip ke NCMEC pada kuartal kedua 2025. Dari jumlah tersebut, lebih dari 528.000 melibatkan interaksi tidak pantas dengan anak-anak, sementara lebih dari 1,5 juta melibatkan berbagi atau berbagi ulang materi pelecehan seksual anak.
Meskipun angka-angka tersebut, JB Branch, advokat kebijakan di Public Citizen, mengatakan ketergantungan yang meningkat pada AI membuat Undang-Undang Report menjadi kurang efisien bagi penyelidik yang meninjau kasus, berargumen bahwa meskipun algoritma telah lama membantu mengurangi beban kerja moderator, peninjau manusia adalah filter yang paling efektif.
“Masalahnya adalah banyak perusahaan teknologi ini telah memberhentikan moderator konten dan menggantinya dengan fitur keamanan AI,” kata Branch kepada Decrypt. “Akibatnya, ada kelebihan positif palsu yang dipilih dari terlalu banyak kehati-hatian.”
Dulu, Branch mengatakan, biasanya ada lebih banyak peninjau manusia dalam rantai peninjauan yang dapat mengidentifikasi dan menghapus konten yang tidak layak untuk eskalasi.
“Karena perusahaan-perusahaan ini telah menghapus moderator konten manusia dari rantai, jauh lebih banyak hal yang lolos karena mereka ingin berhati-hati,” katanya. “Mereka pada dasarnya menarik jaring yang lebih luas dan menangkap hal-hal yang bahkan tidak memenuhi syarat, dan mereka sangat bergantung pada alat AI untuk melakukannya.”
Penyelidik mengatakan dampak dari tips yang dihasilkan AI yang salah saat ini dirasakan di dalam satuan tugas yang meninjau mereka.
“Ini mematikan semangat. Kami tenggelam dalam tips, dan kami ingin keluar dan melakukan pekerjaan ini,” kata seorang petugas ICAC dilaporkan. “Kami tidak memiliki personel untuk mempertahankan itu. Tidak mungkin kami bisa mengikuti banjir yang datang.”