La plataforma de redes sociales de Elon Musk, X, dijo que suspenderá a los creadores de su programa de reparto de ingresos si publican videos generados por IA que muestren conflictos armados sin divulgar claramente que el contenido fue creado con inteligencia artificial. En una publicación del martes, Nikita Bier, jefe de producto de X, dijo que la compañía está revisando sus políticas de reparto de ingresos para mantener la autenticidad en la línea de tiempo de la plataforma y “evitar la manipulación del programa”. “Durante tiempos de guerra, es fundamental que las personas tengan acceso a información auténtica en el terreno,” escribió Bier. “Con las tecnologías de IA actuales, es trivial crear contenido que pueda engañar a las personas.”
Los creadores que violen la regla perderán el acceso al programa de reparto de ingresos de la plataforma durante 90 días, escribió Bier. Las violaciones repetidas conducirán a la eliminación permanente del programa de monetización. El cambio en la política llega en un momento en que videos generados por IA afirman mostrar escenas de violencia creciente en Oriente Medio tras los ataques con misiles de la semana pasada por parte de EE. UU., Israel e Irán. El lunes, un clip generado por IA en X que mostraba un ataque aéreo en el Burj Khalifa en Dubái fue visto más de 8 millones de veces; al mismo tiempo, otra versión del clip fue vista más de 42,000 veces en Instagram.
Disparamos 1,800 misiles contra el Burj Khalifa.
Cada misil alcanzó el objetivo. pic.twitter.com/pdfHWhN2D8
— Mojtaba Khamenei (@MojtabaSpoof) 2 de marzo de 2026
Las Naciones Unidas han advertido que los deepfakes y los medios generados por IA amenazan la integridad de la información, especialmente en zonas de conflicto donde las imágenes o videos falsificados pueden difundir odio o desinformación a gran escala. Esta preocupación se hizo realidad durante la invasión de Rusia a Ucrania, cuando un video deepfake circuló en línea que parecía mostrar al presidente ucraniano Volodymyr Zelensky instando a las tropas ucranianas a rendirse. Los funcionarios rápidamente desacreditaron el video, y Zelensky posteriormente emitió un mensaje rechazando la afirmación. Según Bier, la aplicación de la ley dependerá de varias señales, incluyendo publicaciones que reciban una Nota Comunitaria identificando el video como generado por IA, junto con metadatos u otros indicadores que sugieran que el contenido fue producido usando herramientas de IA generativa. Al vincular la aplicación de la ley con la monetización, la política de X se enfoca específicamente en los incentivos financieros que tienen los creadores para publicar videos falsos que generan clics y vistas. “Continuaremos perfeccionando nuestras políticas y productos para garantizar que X sea confiable durante estos momentos críticos,” escribió Bier.