La IA de Meta inunda a los investigadores de abuso infantil con consejos 'basura', afirman funcionarios policiales

Decrypt

En resumen

  • Los oficiales de la ICAC dicen que los consejos de IA de Meta abruman a los investigadores con informes inutilizables.
  • Esto ocurre en medio de acusaciones a través de una demanda estatal de Nuevo México que alega que la IA de Meta complica las investigaciones de explotación infantil.
  • Meta respondió diciendo que coopera rápidamente con las fuerzas del orden y revisa los informes antes de enviarlos.

El uso de inteligencia artificial por parte de Meta para vigilar sus plataformas está generando grandes volúmenes de informes de baja calidad que agotan recursos y ralentizan las investigaciones sobre abuso infantil, según un informe de The Guardian.
La noticia surge cuando las autoridades policiales de Nuevo México declararon la semana pasada que los informes generados por IA están abrumando a los investigadores y retrasando los casos de explotación infantil.
Los oficiales del programa de la Fuerza de Tareas contra los Delitos en Internet para Niños (ICAC) citaron específicamente los sistemas automatizados de Meta, diciendo que generan miles de consejos inutilizables cada mes que son enviados a las fuerzas del orden.
“Recibimos muchos consejos de Meta que son simplemente basura,” declaró Benjamin Zwiebel, agente especial de la fuerza de tareas ICAC en Nuevo México, durante el juicio contra la compañía en el estado.


Otro oficial de la ICAC, que habló de forma anónima, dijo a The Guardian que los consejos cibernéticos del departamento se duplicaron de 2024 a 2025.
“Es bastante abrumador porque estamos recibiendo tantos informes, pero la calidad de los informes realmente deja mucho que desear en cuanto a nuestra capacidad para tomar acciones serias,” afirmó.
En un comunicado compartido con Decrypt, un portavoz de Meta dijo que la compañía ha cooperado durante mucho tiempo con las fuerzas del orden y señaló que el Departamento de Justicia y el Centro Nacional para Niños Desaparecidos y Explotados han elogiado su proceso de reporte.

“En 2024, recibimos más de 9,000 solicitudes de emergencia de las autoridades estadounidenses y las resolvimos en un promedio de 67 minutos, e incluso más rápido en casos relacionados con la seguridad infantil y el suicidio,” afirmó el portavoz.
“De acuerdo con la ley aplicable, también reportamos imágenes aparentes de explotación sexual infantil a NCMEC y los apoyamos para priorizar los informes, desde ayudar a construir su herramienta de gestión de casos hasta etiquetar los consejos cibernéticos para que sepan cuáles son urgentes,” añadió.
Sin embargo, los oficiales de la ICAC dijeron que algunos de los informes enviados por Meta no son de naturaleza criminal, mientras que otros carecen de evidencia creíble necesaria para seguir adelante con un caso.
El aumento sigue a la Ley de Reportes, que fue firmada en ley en mayo de 2024 y amplió los requisitos de reporte para incluir abusos planeados o inminentes, tráfico sexual infantil y explotación relacionada, además de exigir a las empresas que conserven evidencia por más tiempo.

Por números
Meta sigue siendo la mayor fuente de informes para la línea de consejos cibernéticos de NCMEC, representando aproximadamente dos tercios de los 20.5 millones de consejos recibidos en 2024, una disminución respecto a los 36.2 millones en 2023.
La caída se ha atribuido en parte a cambios en las prácticas de reporte de Meta.
En su informe de integridad de agosto de 2025, Meta dijo que Facebook, Instagram y Threads enviaron más de 2 millones de informes de consejos cibernéticos a NCMEC en el segundo trimestre de 2025.
De esos, más de 528,000 involucraron interacciones inapropiadas con niños, mientras que más de 1.5 millones involucraron la compartición o re-compartición de material de abuso sexual infantil.
A pesar de esas cifras, JB Branch, defensor de políticas en Public Citizen, afirmó que la mayor dependencia de la IA ha hecho que la Ley de Reportes sea menos eficiente para los investigadores que revisan casos, argumentando que aunque los algoritmos han ayudado durante mucho tiempo a reducir la carga de los moderadores, los revisores humanos siguen siendo el filtro más efectivo.
“Parte del problema aquí es que muchas de estas empresas tecnológicas han despedido moderadores de contenido y los han reemplazado con funciones de seguridad basadas en IA,” dijo Branch a Decrypt. “Como resultado, hay una sobreabundancia de falsos positivos que se seleccionan por una sobrecautela excesiva.”

Antes, Branch dijo, generalmente había más revisores humanos en la cadena de revisión que podían identificar y eliminar contenido que no justificaba una escalada.
“Porque estas empresas han eliminado moderadores o revisores humanos de la cadena, se están pasando muchas cosas porque quieren ser cautelosos,” explicó. “Están básicamente usando una red más amplia y capturando cosas que ni siquiera califican, y dependen mucho de las herramientas de IA para hacerlo.”
Los investigadores dicen que el impacto de los consejos generados por IA defectuosos ya se siente dentro de las fuerzas de tarea que los revisan.
“Está matando la moral. Estamos ahogados en consejos, y queremos salir y hacer este trabajo,” dijo un oficial de la ICAC. “No tenemos el personal para sostener eso. No hay forma de que podamos mantener el ritmo de la avalancha que está llegando.”

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)