Menores Processam xAI na Califórnia por Alegadas Imagens Deepfake do Grok

Decrypt

Resumo

  • Três menores do Tennessee processaram a xAI, alegando que o Grok gerou CSAM a partir de suas fotos reais e o disseminou online, causando danos severos.
  • A denúncia afirma que a xAI lançou o Grok sem medidas de segurança e lucrou com seu uso indevido, chamando isso de uma “oportunidade de negócio”.
  • Em meio a investigações globais, as supostas vítimas buscam $150.000 por violação, além de indenizações e uma ordem de restrição.

Três menores do Tennessee processaram a xAI de Elon Musk em uma ação coletiva federal, alegando que o Grok gerou material de abuso sexual infantil usando suas fotos reais e que a empresa conscientemente projetou seu chatbot de IA sem as salvaguardas padrão da indústria, lucrando com o resultado.
A ação, apresentada na segunda-feira no Distrito Norte da Califórnia, afirma que o Grok foi usado para criar e distribuir material de abuso sexual infantil gerado por IA (CSAM) usando suas imagens reais.
Os menores, identificados como Jane Doe 1, 2 e 3, disseram que o conteúdo alterado foi compartilhado em plataformas como Discord, Telegram e sites de compartilhamento de arquivos, causando sofrimento emocional duradouro e prejuízo à reputação.

 “xAI — e seu fundador Elon Musk — viram uma oportunidade de negócio: uma chance de lucrar com a predatória sexual de pessoas reais, incluindo crianças,” afirma a denúncia. “Sabendo do tipo de conteúdo prejudicial e ilegal que poderia — e seria — produzido, a xAI lançou o Grok, um modelo de inteligência artificial generativa com recursos de criação de imagens e vídeos que responde a comandos para criar conteúdo sexual com a imagem ou vídeo de uma pessoa real.”
As supostas vítimas descrevem incidentes entre meados de 2025 e início de 2026, quando suas fotos reais foram alteradas para imagens explícitas e circuladas online.
Em um caso, uma das vítimas foi alertada por um usuário anônimo que encontrou pastas de conteúdo gerado por IA sendo trocadas entre centenas de usuários.

Alegam que um perpetrador acessou o Grok por meio de um aplicativo de terceiros que licenciou a tecnologia da xAI, uma estrutura que, segundo a denúncia, a xAI usou deliberadamente para se isentar de responsabilidade enquanto continuava a lucrar com o modelo subjacente.
No auge da reação pública em janeiro, Musk escreveu na X que “não tem conhecimento de nenhuma imagem de menores nus,” acrescentando que “quando solicitado a gerar imagens, recusará produzir qualquer coisa ilegal.”
De acordo com uma investigação do Center for Countering Digital Hate, citada na denúncia, o Grok produziu aproximadamente 23.338 imagens sexualizadas de crianças entre 29 de dezembro de 2025 e 9 de janeiro deste ano, cerca de uma a cada 41 segundos.
As supostas vítimas buscam indenizações de pelo menos $150.000 por violação, conforme a Lei de Masha, além de devolução de receitas, danos punitivos, honorários advocatícios, uma ordem de restrição permanente e a restituição de lucros sob a Lei de Concorrência Desleal da Califórnia.
Acúmulo de processos
Este é um dos primeiros processos a responsabilizar diretamente uma empresa de IA pela suposta produção e distribuição de CSAM gerado por IA envolvendo menores identificáveis, e ocorre enquanto o Grok enfrenta investigações simultâneas nos EUA, UE, Reino Unido, França, Irlanda e Austrália.
“Quando um sistema é intencionalmente projetado para manipular imagens reais em conteúdo sexualizado, o abuso subsequente não é uma anomalia — é um resultado previsível,” afirmou Alex Chandra, sócio da IGNOS Law Alliance, ao Decrypt.
Chandra disse que os tribunais podem não aceitar uma defesa simples de plataforma, observando que um sistema de IA generativa pode ser “tratado como uma plataforma em termos de interação do usuário,” mas “avaliado como um produto” ao analisar o design de segurança, com “uma fiscalização particularmente rigorosa” em casos de CSAM devido às obrigações reforçadas de proteção infantil.
Ele também afirmou que os tribunais provavelmente focarão nas salvaguardas, observando que a empresa pode ser obrigada a apresentar “avaliações de risco e medidas de segurança por design antes do deployment,” além de barreiras que bloqueiem ativamente saídas prejudiciais.

Decrypt entrou em contato com Musk via xAI e SpaceX para comentários.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário