O uso de inteligência artificial pela Meta para fiscalizar suas plataformas está gerando grandes volumes de relatórios de baixa qualidade, que drenam recursos e atrasam investigações de abuso infantil, de acordo com um relatório do The Guardian.
A notícia surge após oficiais de aplicação da lei do Novo México testemunharem na semana passada que os relatórios gerados por IA estão sobrecarregando os investigadores e atrasando casos de exploração infantil.
Oficiais do programa de Crimes na Internet contra Crianças (ICAC) citaram especificamente os sistemas automatizados da Meta, dizendo que eles geram milhares de dicas inutilizáveis a cada mês, que são encaminhadas às autoridades.
“Recebemos muitas dicas da Meta que são basicamente lixo,” testemunhou Benjamin Zwiebel, agente especial da ICAC no Novo México, durante o julgamento contra a empresa.
Outro oficial da ICAC, que falou anonimamente, disse ao The Guardian que as dicas cibernéticas do departamento dobraram de 2024 para 2025.
“É bastante esmagador porque estamos recebendo tantos relatórios, mas a qualidade deles é realmente precária em termos de nossa capacidade de tomar ações sérias,” afirmou.
Em uma declaração compartilhada com Decrypt, um porta-voz da Meta afirmou que a empresa coopera há muito tempo com as autoridades e destacou que o Departamento de Justiça e o Centro Nacional de Crianças Desaparecidas e Exploited Children elogiaram seu processo de relato.
“Em 2024, recebemos mais de 9.000 pedidos de emergência de autoridades dos EUA e os resolvemos em uma média de 67 minutos, sendo ainda mais rápidos em casos envolvendo segurança infantil e suicídio,” disse o porta-voz.
“De acordo com a lei aplicável, também reportamos imagens aparentes de exploração sexual infantil ao NCMEC e apoiamos na priorização desses relatos, ajudando a construir sua ferramenta de gestão de casos e rotulando dicas cibernéticas para que saibam quais são urgentes,” acrescentou.
No entanto, oficiais da ICAC disseram que alguns dos relatórios enviados pela Meta não são de natureza criminal, enquanto outros carecem de evidências credíveis necessárias para prosseguir com um caso.
O aumento ocorre após a Lei de Relatórios, assinada em maio de 2024, que expandiu os requisitos de relato para incluir abuso planejado ou iminente, tráfico sexual infantil e exploração relacionada, além de exigir que as empresas preservem evidências por mais tempo.
Por números
A Meta continua sendo a maior fonte de relatórios para o CyberTipline do NCMEC, respondendo por cerca de dois terços dos 20,5 milhões de dicas recebidas em 2024, uma queda em relação às 36,2 milhões em 2023.
A redução foi parcialmente atribuída às mudanças nas práticas de relato da Meta.
No relatório de integridade de agosto de 2025, a Meta afirmou que Facebook, Instagram e Threads enviaram mais de 2 milhões de relatórios ao CyberTip em 2025 no segundo trimestre.
Desses, mais de 528.000 envolveram interações inadequadas com crianças, enquanto mais de 1,5 milhão envolveram o compartilhamento ou re-compartilhamento de material de abuso sexual infantil.
Apesar desses números, JB Branch, defensor de políticas na Public Citizen, afirmou que a maior dependência de IA tornou a Lei de Relatórios menos eficiente para os investigadores na revisão dos casos, argumentando que, embora algoritmos tenham ajudado a reduzir a carga de trabalho dos moderadores, os revisores humanos eram o filtro mais eficaz.
“Parte do problema aqui é que muitas dessas empresas de tecnologia demitiram moderadores de conteúdo e os substituíram por recursos de segurança baseados em IA,” disse Branch ao Decrypt. “Como resultado, há uma superabundância de falsos positivos sendo selecionados por uma cautela excessiva.”
No passado, disse Branch, havia geralmente mais revisores humanos na cadeia de revisão que podiam identificar e remover conteúdo que não justificava escalonamento.
“Porque essas empresas removeram moderadores ou revisores humanos da cadeia, muitas mais coisas estão sendo aprovadas porque querem agir com cautela,” afirmou. “Eles basicamente estão usando uma rede mais ampla e capturando coisas que nem sequer qualificam, e dependem fortemente de ferramentas de IA para isso.”
Investigadores dizem que o impacto de dicas geradas por IA com falhas já está sendo sentido dentro das forças-tarefa que as revisam.
“Está matando o moral. Estamos afogados em dicas, e queremos sair e fazer esse trabalho,” disse um oficial da ICAC. “Não temos pessoal suficiente para sustentar isso. Não há como acompanhar a enxurrada que está chegando.”