A plataforma de redes sociais de Elon Musk, X, anunciou que suspenderá criadores do seu programa de partilha de receitas se publicarem vídeos gerados por IA que retratem conflitos armados sem divulgar claramente que o conteúdo foi criado com inteligência artificial. Numa publicação na terça-feira, Nikita Bier, chefe de produto do X, afirmou que a empresa está a revisar as suas políticas de partilha de receitas para manter a autenticidade na linha do tempo da plataforma e “evitar manipulação do programa”. “Durante tempos de guerra, é fundamental que as pessoas tenham acesso a informações autênticas no terreno,” escreveu Bier. “Com as tecnologias de IA de hoje, é trivial criar conteúdos que possam enganar as pessoas.”
Criadores que violarem a regra perderão o acesso ao programa de partilha de receitas do X por 90 dias, escreveu Bier. Violações repetidas levarão à remoção permanente do programa de monetização. A mudança na política ocorre numa altura em que vídeos gerados por IA alegam mostrar cenas de violência crescente no Médio Oriente após ataques de mísseis pelos EUA, Israel e Irã na semana passada. Na segunda-feira, um vídeo gerado por IA no X, mostrando um ataque aéreo ao Burj Khalifa em Dubai, foi visto mais de 8 milhões de vezes; ao mesmo tempo, outra versão do vídeo foi vista mais de 42.000 vezes no Instagram.
Disparamos 1.800 mísseis contra o Burj Khalifa.
Cada míssil atingiu o alvo. pic.twitter.com/pdfHWhN2D8
— Mojtaba Khamenei (@MojtabaSpoof) 2 de março de 2026
As Nações Unidas alertaram que deepfakes e conteúdos gerados por IA ameaçam a integridade da informação, especialmente em zonas de conflito onde imagens ou vídeos fabricados podem espalhar ódio ou desinformação em grande escala. Essa preocupação foi concretizada durante a invasão da Ucrânia pela Rússia, quando um vídeo deepfake circulou online, parecendo mostrar o presidente ucraniano Volodymyr Zelensky a pedir às tropas ucranianas que se rendessem. Autoridades rapidamente desmentiram o vídeo, e Zelensky posteriormente divulgou uma mensagem a rejeitar a alegação. Segundo Bier, a aplicação da lei dependerá de vários sinais, incluindo publicações que recebam uma Nota Comunitária identificando o vídeo como gerado por IA, juntamente com metadados ou outros indicadores que sugiram que o conteúdo foi produzido usando ferramentas de IA generativa. Ao vincular a aplicação da lei à monetização, a política do X foca especificamente nos incentivos financeiros que os criadores têm para publicar vídeos falsos que geram cliques e visualizações. “Continuaremos a aprimorar as nossas políticas e produtos para garantir que o X seja confiável durante estes momentos críticos,” escreveu Bier.