La plataforma de redes sociales X de Elon Musk ha anunciado una nueva política para controlar a los creadores que publican videos de guerra generados por inteligencia artificial sin dejar claro que el contenido fue creado por IA. Según Nikita Bier, jefe de producto de X, la compañía está actualizando su política de reparto de ingresos para los creadores con el fin de proteger la veracidad de la información en la plataforma y prevenir el uso indebido del programa de monetización.
Según la nueva regulación, las personas que publiquen videos de guerra generados por IA de manera engañosa sin indicar claramente que son AI serán suspendidas del programa de reparto de ingresos por 90 días; en caso de reincidencia, podrán ser eliminadas permanentemente del programa de monetización. Esta decisión se tomó después de que varios videos de IA sobre tensiones en Oriente Medio se volvieran virales, incluyendo un video falso sobre un ataque aéreo en el edificio Burj Khalifa en Dubái. X utilizará Community Notes y datos metadata para detectar contenido generado por IA.