Le régulateur irlandais de la protection de la vie privée a lancé une enquête officielle contre X en raison de préoccupations selon lesquelles le chatbot IA de Elon Musk, Grok, aurait contribué à générer et diffuser des images sexualisées non consensuelles, y compris des images impliquant des enfants. Cette enquête marque une escalade significative dans la répression internationale croissante des outils de « nudification » alimentés par l’IA et du contenu deepfake.
L’enquête a été initiée par la Commission irlandaise de protection des données (DPC) contre X Internet Unlimited Company (XIUC), l’entité juridique enregistrée dans l’UE via laquelle la plateforme opère en Europe. La procédure relève de la loi irlandaise sur la protection des données de 2018 et examinera si les outils d’IA générative de Grok ont été impliqués dans la création et la publication d’images intimes potentiellement nuisibles sans consentement.
En tant qu’autorité principale de supervision pour X dans l’Union européenne et l’Espace économique européen, la DPC évaluera la conformité aux dispositions clés du Règlement général sur la protection des données (RGPD). Cela inclut l’examen si l’entreprise a respecté les principes de traitement licite, les normes de confidentialité dès la conception, et si une évaluation d’impact sur la protection des données aurait dû être réalisée avant le déploiement de telles capacités d’IA.
Le Centre de lutte contre la haine numérique (CCDH) a rapporté que Grok a généré plus de 23 000 images sexualisées représentant des enfants sur une période de 11 jours entre fin décembre et début janvier. Des chercheurs ont constaté qu’environ un tiers des images échantillonnées restaient accessibles sur la plateforme malgré la politique de tolérance zéro déclarée par X. Suite à la réaction publique, X a limité les fonctionnalités de génération d’images de Grok aux abonnés payants, introduit des mesures techniques pour empêcher la manipulation des vêtements dans les images, et a géo-bloqué l’outil dans les juridictions où ce contenu est illégal.
Une pression réglementaire mondiale s’intensifie
L’action de l’Irlande s’ajoute à une surveillance mondiale croissante. En janvier, la Commission européenne a ouvert une enquête officielle dans le cadre du Digital Services Act sur le rôle présumé de X dans la génération et la diffusion de contenus illégaux liés à Grok. Peu après, les autorités françaises ont perquisitionné les bureaux de X à Paris en coordination avec Europol dans le cadre d’une enquête criminelle.
Au Royaume-Uni, à la fois Ofcom et le Bureau du commissaire à l’information ont lancé des enquêtes distinctes sur la plateforme. Le Premier ministre Keir Starmer a indiqué que de nouveaux pouvoirs parlementaires pourraient être sollicités pour faire des fournisseurs de chatbots IA des acteurs plus directement soumis aux lois sur la sécurité en ligne. Les régulateurs ont averti que le non-respect pourrait entraîner des mesures judiciaires, y compris des restrictions de service potentielles.
En Australie, le Commissaire à la sécurité en ligne a signalé une forte augmentation des plaintes concernant des images sexuelles générées par IA sans consentement, liées à Grok. Par ailleurs, le procureur général de Californie, Rob Bonta, a annoncé une enquête officielle sur xAI et son chatbot concernant la création et la diffusion d’images explicites générées par IA impliquant des femmes et des enfants.
Des organisations internationales tirent également la sonnette d’alarme. L’UNICEF a récemment qualifié les deepfakes sexuels IA de « escalade profonde » des risques pour les enfants dans les environnements numériques, citant des estimations selon lesquelles au moins 1,2 million d’enfants ont été ciblés l’année dernière. L’agence a appelé les gouvernements à criminaliser les contenus abusifs générés par IA et à exiger des mesures de sécurité dès la conception dans les systèmes d’IA générative.
Alors que les enquêtes s’étendent dans plusieurs juridictions, l’affaire contre X et Grok souligne un changement réglementaire plus large. Les gouvernements passent de l’application réactive à une supervision proactive des systèmes d’IA générative, en particulier lorsque la protection des enfants et les droits à la vie privée sont en jeu.