Uma mulher na Califórnia, EUA, moveu uma ação coletiva contra a OpenAI por violação da lei de privacidade, acusando o ChatGPT de, sem o consentimento dos utilizadores, enviar o conteúdo das suas pesquisas para a Meta e para o Google através de ferramentas de rastreio. O caso é visto como um caso simbólico que desafia diretamente, pela primeira vez num tribunal federal, a forma como os dados de um chatbot de IA são tratados, suscitando uma atenção elevada do público à proteção da privacidade em IA.
(ChatGPT envolve caso de suicídio de adolescentes! OpenAI: reforçou mecanismos de proteção psicológica do GPT-5)
ChatGPT parece ter integrado códigos de rastreio invisíveis, com todo o conteúdo das conversas a ser visto
A 13 de maio, uma residente da Califórnia, representada por Amargo Couture, apresentou uma queixa junto do Tribunal Distrital dos Estados Unidos para o Distrito Sul da Califórnia.
A petição afirma que a OpenAI incorporou, no código do site oficial do ChatGPT, ferramentas de terceiros de rastreio como o “Facebook Pixel” da Meta e o “Google Analytics” do Google. Estes códigos de rastreio funcionam automaticamente sem que os utilizadores tenham conhecimento, transmitindo em tempo real o conteúdo das pesquisas inseridas pelo utilizador e informações de identificação pessoal à Meta e ao Google, incluindo dados privados altamente sensíveis, como condições de saúde, conselhos financeiros e questões legais.
Couture afirma que, entre 2025 e 2026, utilizou várias vezes o ChatGPT para pesquisar questões pessoais relacionadas com a saúde e com as finanças, mas não tinha qualquer noção de que estes conteúdos íntimos tinham sido encaminhados para gigantes da tecnologia publicitária de terceiros.
Da base legal: montante potencial de indemnizações da OpenAI superior a 5 milhões de dólares
A petição indica que a OpenAI terá violado várias leis dos EUA e da Califórnia, incluindo a “Electronic Communications Privacy Act (ECPA)” e leis da Califórnia sobre violação de privacidade. Entre as áreas abrangidas pela CIPA, não se incluem apenas comunicações telefónicas tradicionais: também se aplicam “tecnologias emergentes”, como computadores, a Internet e correio eletrónico.
De acordo com a lei da Califórnia, o montante máximo de indemnização legal por cada ato de violação pode ascender a 5.000 dólares; se obtiverem qualificação para uma ação coletiva, a dimensão do pedido potencial será enorme, sendo estimado que o valor do processo ultrapasse os 5 milhões de dólares. Os advogados dos demandantes salientaram que a OpenAI ajudou a Meta e o Google a intercetar conteúdos de comunicação sem autorização dos utilizadores, o que constitui uma violação sistemática da privacidade de milhões de utilizadores.
O que é um código de rastreio? Um ladrão de dados difícil de detetar
O chamado “código de rastreio (Tracking Pixels)” é um pequeno excerto de código incorporado no código-fonte de uma página Web, cuja existência é geralmente difícil de detetar para os utilizadores comuns. Sempre que um utilizador visita um sítio, o pixel de rastreio é ativado automaticamente, recolhendo silenciosamente informações sobre o comportamento de navegação e as operações do utilizador, antes de as reenviar para empresas como a Meta ou o Google.
No caso de plataformas de comércio eletrónico ou de sítios orientados para publicidade, este tipo de prática pode ter legitimidade comercial; mas o contexto de utilização do ChatGPT é totalmente diferente. Quando os utilizadores colocam questões ao ChatGPT, muitas vezes fazem-no com base na confiança na plataforma, dispostos a revelar preocupações privadas que não contariam a ninguém, como dores corporais, feridas emocionais ou crises financeiras. Assim que estas conversas são espelhadas por empresas de publicidade, a OpenAI perde a confiança dos utilizadores.
A Meta explora precisamente estes dados para construir o seu vasto sistema de publicidade de precisão. De acordo com a petição, quase todas as receitas da Meta provêm de publicidade; e o seu sistema publicitário consegue acompanhar simultaneamente as atividades dos utilizadores dentro e fora da plataforma, inferindo os seus interesses, comportamentos e tendências sociais, e criando mecanismos de publicidade direcionada para diversos públicos.
A privacidade dos utilizadores precisa urgentemente de proteção legislativa; as conversas de IA não podem ser uma brecha
À medida que cada vez mais pessoas integram ferramentas de IA no dia a dia, as disputas globais sobre privacidade continuam a intensificar-se. Quer se trate de dilemas emocionais e lutas pessoais que os utilizadores revelam a chatbots de IA, quer de dados confidenciais em massa associados por trabalhadores de empresas, do indivíduo à empresa, todos enfrentam provavelmente ameaças.
Há apenas alguns dias, a OpenAI foi igualmente alvo de acusação por alegadamente ter orientado o autor do tiroteio na Universidade Estadual da Florida via ChatGPT, contribuindo indiretamente para a morte das duas pessoas envolvidas.
Especialistas jurídicos consideram que, se este tipo de ações for considerado procedente, produzirá efeitos de precedente significativos para toda a indústria da IA, obrigando as empresas a informarem de forma mais clara o que os dados dos utilizadores são recolhidos, por quanto tempo são conservados e com quem são partilhados, bem como a disponibilizarem mecanismos claros de aceitação ou recusa. Atualmente, a OpenAI ainda não emitiu qualquer declaração pública sobre o assunto. O processo encontra-se ainda numa fase inicial, e a questão de saber se será reconhecida a qualificação para uma ação coletiva depende da decisão do tribunal.
Este artigo sobre um novo processo judicial contra o ChatGPT! Acusação de alegado vazamento secreto de conteúdos de conversas de utilizadores para a Meta e para o Google apareceu pela primeira vez em 鏈新聞 ABMedia.
Related News
A WhatsApp da Meta AI abre conversas sem rasto, com mensagens que desaparecem automaticamente, suscitando dúvidas e receios sobre um mecanismo de responsabilização
A Mistral AI está em negociações com bancos europeus para desenvolver o Mythos, um modelo alternativo de cibersegurança
Ex-polícia afirma que o ChatGPT terá causado uma “psicose de IA”
Sam Altman presta declarações em tribunal: Musk teria forçado a equipa da Tesla a ver “memes” durante uma reunião
Ataques de dupla via à cadeia de abastecimento de pacotes de IA: Mistral e falsos modelos OpenAI também comprometidos