La plateforme de réseau social X d’Elon Musk a annoncé une nouvelle politique visant à contrôler les créateurs qui publient des vidéos de guerre générées par intelligence artificielle sans indiquer clairement que le contenu est créé par IA. Selon Nikita Bier, responsable produit de X, la société met à jour sa politique de partage des revenus avec les créateurs afin de préserver l’authenticité des informations sur la plateforme et d’empêcher l’exploitation du programme de monétisation.
Selon la nouvelle réglementation, ceux qui publient des vidéos de guerre IA trompeuses sans mentionner explicitement seront interdits de participation au programme de partage des revenus pendant 90 jours ; en cas de violations répétées, ils pourront être exclus définitivement du programme de monétisation. Cette décision a été prise après la diffusion de nombreuses vidéos IA sur les tensions au Moyen-Orient, y compris une fausse vidéo d’une attaque aérienne contre le bâtiment Burj Khalifa à Dubaï. X utilisera Community Notes et des données de métadonnées pour détecter le contenu généré par IA.