
A plataforma social X, de propriedade de Elon Musk, anunciou uma atualização na sua política de monetização para criadores, estabelecendo que qualquer criador que publique vídeos de conflitos armados gerados por IA sem indicar claramente a origem será suspenso de participar no programa de partilha de receitas “Creator Revenue Sharing” por 90 dias; reincidências nesta violação resultarão na exclusão definitiva de todas as possibilidades de lucro na plataforma. O responsável pelo produto X, Nikita Bier, afirmou que esta atualização visa preservar a veracidade do conteúdo na linha do tempo.
O programa de partilha de receitas do X permite que contas qualificadas obtenham ganhos com base na interação com publicações e assinaturas, sendo a principal fonte de rendimento as ações de interação de assinantes pagos do X Premium, e não o modelo tradicional de receita por publicidade. A nova política inclui a obrigação de divulgar a origem de vídeos gerados por IA como condição para participação na monetização:
Primeira infração: suspensão de 90 dias na participação no programa de partilha de receitas “Creator Revenue Sharing”
Reincidência: cancelamento permanente de todas as possibilidades de lucro na plataforma X
Condição de ativação: publicação de vídeos relacionados a conflitos armados ou guerras considerados gerados por IA, sem divulgar ativamente a origem de IA
Nikita Bier destacou que, durante períodos de guerra e conflito, obter informações reais do local é extremamente importante. Com a popularização de ferramentas de IA generativa, o custo para criar imagens altamente realistas de cenários fictícios de batalha caiu drasticamente, levando a plataforma a implementar um sistema que impacta diretamente os ganhos dos criadores, reforçando incentivos à conformidade.
A atualização da política foi motivada pelo recente conflito armado no Oriente Médio, onde uma grande quantidade de vídeos alegando ser de cenas de batalha se espalharam rapidamente no X e em outras redes sociais, sendo posteriormente confirmados como conteúdo sintético por IA.
Um vídeo que mostra a Torre Burj Khalifa, em Dubai, sendo atingida por um ataque aéreo acumulou mais de 8 milhões de visualizações no X. Uma versão semelhante também foi vista cerca de 42 mil vezes no Instagram. Ambas as versões foram verificadas como imagens geradas por IA, não sendo cenas reais de combate.
Este tipo de problema não é novo. Durante a invasão russa na Ucrânia, circulou um vídeo falso de Zelensky, presidente ucraniano, pedindo a rendição das forças militares, que posteriormente foi confirmado como deepfake. A ONU alertou que deepfakes e mídias geradas por IA representam uma ameaça séria à credibilidade da informação global, especialmente em zonas de conflito, onde imagens fictícias podem ser amplamente disseminadas para incitar ódio ou manipular a opinião pública.
Para garantir a aplicação da nova política, a X afirmou que integrará várias tecnologias e sinais comunitários para identificar conteúdos violadores: os metadados embutidos nos vídeos, os vestígios técnicos deixados por ferramentas de IA generativa, e o sistema de verificação de fatos “Community Notes”. Se uma publicação for marcada pela comunidade como gerada por IA e o criador não divulgar a origem, a plataforma poderá iniciar uma investigação e aplicar as penalidades previstas.
Nikita Bier enfatizou que conectar o sistema de punições à elegibilidade de monetização visa reduzir fundamentalmente o incentivo dos criadores a utilizarem imagens falsas para obter tráfego e receita. A X afirmou que continuará ajustando suas políticas para garantir a confiabilidade geral das informações na plataforma durante grandes conflitos ou eventos imprevistos.