L'IA de Meta inonde les enquêteurs spécialisés dans la lutte contre la maltraitance des enfants de conseils « inutiles », affirment des responsables des forces de l'ordre

Decrypt

En bref

  • Les agents de l’ICAC déclarent que les conseils d’IA de Meta submergent les enquêteurs avec des rapports inutilisables.
  • Cela intervient dans le cadre d’accusations via une plainte de l’État du Nouveau-Mexique alléguant que l’IA de Meta complique les enquêtes sur l’exploitation des enfants.
  • Meta a répliqué en affirmant qu’elle coopère rapidement avec les forces de l’ordre et examine les rapports avant leur soumission.

L’utilisation par Meta de l’intelligence artificielle pour surveiller ses plateformes génère de nombreux rapports de faible qualité qui épuisent les ressources et ralentissent les enquêtes sur la maltraitance des enfants, selon un rapport de The Guardian.
La nouvelle survient alors que des responsables des forces de l’ordre du Nouveau-Mexique ont témoigné la semaine dernière que les rapports générés par l’IA submergent les enquêteurs et ralentissent les affaires d’exploitation des enfants.
Les agents du groupe de lutte contre la cybercriminalité envers les enfants ont spécifiquement cité les systèmes automatisés de Meta, affirmant qu’ils génèrent chaque mois des milliers de conseils inutilisables qui sont transmis aux forces de l’ordre.
« Nous recevons beaucoup de conseils de Meta qui sont simplement des déchets », a témoigné Benjamin Zwiebel, agent spécial du groupe ICAC du Nouveau-Mexique, lors du procès de l’État contre la société.


Un autre agent de l’ICAC, parlant anonymement, a confié à The Guardian que les cyberconseils du département ont doublé entre 2024 et 2025.
« C’est assez accablant parce que nous recevons tellement de rapports, mais leur qualité est vraiment insuffisante pour que nous puissions prendre des mesures sérieuses », ont-ils déclaré.
Dans un communiqué partagé avec Decrypt, un porte-parole de Meta a indiqué que la société coopère depuis longtemps avec les forces de l’ordre et a noté que le Département de la Justice et le Centre national pour les enfants disparus et exploités ont loué son processus de signalement.

« En 2024, nous avons reçu plus de 9 000 demandes d’urgence des autorités américaines et les avons résolues en moyenne en 67 minutes, voire plus rapidement pour les cas impliquant la sécurité des enfants et le suicide », a déclaré le porte-parole.
« Conformément à la loi applicable, nous signalons également les images d’exploitation sexuelle d’enfants apparentes au NCMEC et les aidons à prioriser les rapports, en contribuant à la construction de leur outil de gestion des cas ou en étiquetant les cyberconseils pour qu’ils sachent lesquels sont urgents », ont-ils ajouté.
Cependant, les agents de l’ICAC ont indiqué que certains des rapports envoyés par Meta ne sont pas de nature criminelle, tandis que d’autres manquent de preuves crédibles nécessaires pour poursuivre une affaire.
Cette augmentation fait suite à la loi Report Act, adoptée en mai 2024, qui a étendu les exigences de signalement pour inclure les abus planifiés ou imminents, la traite sexuelle d’enfants et l’exploitation connexe, tout en obligeant les entreprises à conserver les preuves plus longtemps.

Par les chiffres
Meta reste la principale source de rapports pour la CyberTipline du NCMEC, représentant environ deux tiers des 20,5 millions de conseils reçus en 2024, en baisse par rapport à 36,2 millions en 2023. La baisse a été en partie attribuée à des changements dans les pratiques de signalement de Meta.
Dans son rapport d’intégrité d’août 2025, Meta a indiqué que Facebook, Instagram et Threads ont envoyé plus de 2 millions de rapports CyberTip au NCMEC au deuxième trimestre 2025. Parmi ceux-ci, plus de 528 000 concernaient des interactions inappropriées avec des enfants, tandis que plus de 1,5 million impliquaient le partage ou la re-partage de matériel d’abus sexuel sur des enfants.
Malgré ces chiffres, JB Branch, un défenseur des politiques chez Public Citizen, a déclaré que la dépendance accrue à l’IA a rendu la loi Report Act moins efficace pour les enquêteurs qui examinent les cas, arguant que si les algorithmes ont longtemps aidé à réduire la charge de travail des modérateurs, ce sont les examinateurs humains qui sont les filtres les plus efficaces.
« Une partie du problème ici, c’est que beaucoup de ces entreprises technologiques ont licencié des modérateurs de contenu et les ont remplacés par des fonctionnalités de sécurité basées sur l’IA », a expliqué Branch à Decrypt. « En conséquence, il y a une surabondance de faux positifs sélectionnés par précaution excessive. »

Autrefois, a-t-il dit, il y avait généralement plus d’examinateurs humains dans la chaîne de révision qui pouvaient identifier et supprimer le contenu ne justifiant pas une escalade.
« Parce que ces entreprises ont supprimé les modérateurs ou examinateurs humains de la chaîne, beaucoup plus de choses passent parce qu’elles veulent privilégier la prudence », a-t-il expliqué. « Elles utilisent essentiellement un filet plus large et capturent des choses qui ne devraient même pas l’être, en s’appuyant fortement sur des outils d’IA pour cela. »
Les enquêteurs affirment que l’impact des conseils générés par une IA défectueuse se fait désormais sentir au sein des groupes d’enquête qui les examinent.
« Cela tue le moral. Nous sommes submergés par les conseils, et nous voulons faire ce travail », aurait déclaré un agent de l’ICAC. « Nous n’avons pas le personnel pour soutenir cela. Il est impossible de suivre le flot qui arrive. »

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire