一名在美国加州的女子因涉嫌违反隐私法,向 OpenAI 提起集体诉讼,指控 ChatGPT 在未经用户同意的情况下,通过追踪工具将用户的查询内容传送给 Meta 和 Google。此案被认为是联邦法院首度直接挑战 AI 聊天机器人数据处理方式的标志性案件,引发外界对 AI 隐私保护的高度关注。
(ChatGPT 涉及青少年自杀案!OpenAI:已强化 GPT-5 心理防护机制)
ChatGPT 疑似嵌入隐形追踪码,聊天内容全被看光光
5 月 13 日,一位以 Amargo Couture 为代表的加州居民,向美国联邦地方法院南加州分院提起诉讼。
起诉状指出,OpenAI 在 ChatGPT 官网的代码中,嵌入了 Meta 的「Facebook Pixel」与 Google 的「Google Analytics」等第三方追踪工具。这些追踪码在用户毫不知情的情况下自动运行,将用户输入的查询内容与个人可识别信息实时传送至 Meta 和 Google,包括健康状况、财务建议、法律问题等高度敏感的私人信息。
Couture 表示,她在 2025 至 2026 年间多次使用 ChatGPT 查询个人健康与财务相关问题,却完全不知道这些私密内容已被转传给第三方广告科技巨头。
从法源出发:OpenAI 潜在赔偿金额超过 500 万美元
起诉状指出,OpenAI 涉嫌违反多项美国及加州法律,包括《电子通讯隐私法(ECPA)》与加州《侵犯隐私法》等。其中 CIPA 的范围不限于传统电话通讯,包括电脑、互联网及电子邮件等「新兴科技」都适用。
根据加州法律,每项违规行为的法定赔偿金额最高可达 5,000 美元;若取得集体诉讼资格,潜在求偿规模将十分庞大,诉讼金额估计逾 500 万美元。原告律师强调,OpenAI 协助 Meta 和 Google 在未获用户授权的情况下拦截通讯内容,已构成对数百万用户隐私的系统性侵害。
追踪码是什么?难以察觉的数据窃取者
所谓「追踪码(Tracking Pixels)」,是一段嵌入在网页源代码中的微型代码,一般用户难以察觉其存在。每当用户造访网站,追踪像素便自动启动,悄悄收集用户的浏览行为与操作信息,再回传给 Meta 或 Google 等公司。
对于电商平台或广告导向的网站而言,这类做法虽有商业上的正当性;但 ChatGPT 的使用情境截然不同。用户向 ChatGPT 提问,往往是出于对这个平台的信任,才愿意透露不想让任何人知道的私密烦恼,例如身体病痛、感情伤痛或财务危机。一旦这些对话被广告公司侧录,OpenAI 也会失去用户的信任。
Meta 正是利用这些数据,建立其庞大的精准广告投放体系。根据起诉状,Meta 几乎所有营收均来自广告,其广告系统能同时追踪用户在平台内外的活动,从中推断用户的兴趣、行为与社交倾向,并建立针对各种受众的广告投放机制。
用户隐私急需立法保障,AI 对话不能是破口
随着越来越多人将 AI 工具融入日常生活,全球隐私争议持续升温。无论是用户对 AI 聊天机器人的情感困境与个人挣扎的倾诉,或是企业员工所贴上成千上万份机密资料,从个人到企业恐怕都面临威胁。
几天前,OpenAI 才刚因 ChatGPT 涉嫌引导佛罗里达州立大学枪击案枪手,间接导致两人死亡而一并遭到起诉。
法律专家认为,若此类诉讼获判成立,将对整个 AI 产业产生重大的示范效果,迫使各家业者必须更清楚地告知用户数据的收集范围、保存期限及分享对象,并提供明确的同意与否机制。目前,OpenAI 尚未对此发表任何公开声明。案件仍处于初期阶段,是否取得集体诉讼资格仍待法院裁决。
这篇文章 ChatGPT 法律诉讼再添一桩!遭控秘密泄露用户聊天内容给 Meta 与 Google 最早出现在 链新闻 ABMedia。
Related News
WhatsApp presenta conversaciones sin huella con la IA de Meta: los mensajes que se autodestruyen despiertan dudas sobre posibles mecanismos de rendición de cuentas
Mistral AI y bancos europeos negocian para desarrollar un modelo alternativo de ciberseguridad llamado Mythos
Ex agente de policía afirma que ChatGPT causó una «psicosis de la IA»
Sam Altman comparece en un juicio y declara: Musk obligó a mirar «memes» durante una reunión de Tesla
Ataques dobles a la cadena de suministro de paquetes de IA: Mistral y modelos falsos de OpenAI también fueron comprometidos