Instalación silenciosa de Chrome de un modelo Gemini Nano de 4 GB: un investigador revela una posible violación de las leyes de privacidad de la UE sin consentimiento

Google Chrome del 20 al 29 de abril de 2026, sin el consentimiento explícito del usuario, instaló en silencio en los dispositivos un modelo de IA Gemini Nano de 4GB. La evidencia forense publicada por el investigador de privacidad Alexander Hanff en Hacker News muestra que el archivo se llama weights.bin, está ubicado en el directorio OptGuideOnDeviceModel y contiene los pesos del propio LLM local de Google, Gemini Nano. El caso ya subió al 1,234 puesto en la página principal de tendencias de HN y ha suscitado preocupaciones sobre violaciones de la directiva europea GDPR/ePrivacy.

El panorama completo: modelo de 4GB + “lo borras y se vuelve a descargar automáticamente”

Los hechos clave revelados por Hanff:

Chrome en sus actualizaciones automáticas, sin haber mostrado nunca al usuario una notificación u opción de “descargar un modelo de IA de 4GB”

El archivo del modelo Gemini Nano en el dispositivo (weights.bin) ocupa aproximadamente 4GB y utiliza claramente espacio de almacenamiento

No existe un interruptor de “opt-in” (preguntar antes de descargar) ni de “opt-out” (apagar con un solo clic); solo las herramientas de TI de la empresa pueden gestionarlo

Después de que el usuario borra manualmente el modelo, la próxima actualización de Chrome lo descarga automáticamente de nuevo

Con más de 1,000 millones de usuarios globales, el alcance de este despliegue silencioso es enorme

Gemini Nano es un LLM pequeño diseñado por Google para la “ejecución en el dispositivo”; sus usos incluyen la ayuda de escritura de Chrome, resúmenes de texto, detección de estafas y phishing, y funciones de autocompletado y sugerencias asistidas por IA. Para Google, el beneficio de empujar el modelo al dispositivo es reducir costos en la nube y acelerar la respuesta; para los usuarios, si no lo saben, es que 4GB de espacio en disco se ocupan de forma silenciosa.

Dudas regulatorias: posible violación del artículo 5(3) de la directiva EU ePrivacy

En su análisis, Hanff señala con claridad los artículos que podrían vulnerar la normativa de privacidad de la UE: el artículo 5(3) de la directiva EU ePrivacy establece que “almacenar información en el equipo terminal del usuario” exige obtener un “consentimiento previo, libre, específico, informado y no ambiguo”. La instalación silenciosa de 4GB en Chrome podría no cumplir con cada uno de los siguientes aspectos:

“Previo” — el usuario no fue informado antes de que ocurriera la descarga

“Libre” — Chrome no ofrece una opción para rechazar

“Específico” — no se declara explícitamente el propósito del modelo

“Informado” — el usuario no sabe qué está ocurriendo

“No ambiguo” — no existe ninguna acción de consentimiento

Si la autoridad de protección de datos de la UE (DPA) abre un caso formal, Google podría enfrentar multas sustanciales: hasta el 4% de los ingresos anuales globales según el GDPR. Este caso es la controversia de “despliegue de IA en el dispositivo sin consentimiento” de mayor escala en 2026 y podría convertirse en un precedente concreto para la regulación de la IA por parte de la UE contra gigantes tecnológicos de Estados Unidos.

Impacto ambiental: emisiones de carbono por la descarga sincronizada en nivel de 100 millones de dispositivos

Hanff también calculó el costo climático a escala: con la base de 1,000 millones de usuarios globales de Chrome, las emisiones equivalentes de carbono estimadas por una sola entrega del modelo oscilan entre 6,000 y 60,000 toneladas de CO2 (dependiendo de cuántos dispositivos realmente reciban la entrega). La cifra equivale a las emisiones de decenas de miles de autos por un año, o a la emisión diaria de una pequeña planta generadora de energía.

Esto plantea el problema del “costo marginal aparentemente cero, pero a escala agregada impactante” al impulsar IA por parte de los gigantes tecnológicos: Google empuja un modelo una vez como una simple actualización automática, pero 1,000 millones de dispositivos descargan simultáneamente 4GB, generando tráfico de red, costos de almacenamiento, emisiones de carbono, y al final todo se reparte entre usuarios e infraestructura en todo el mundo.

Otro elemento engañoso: la “AI Mode” de Chrome no usa la Gemini Nano local

Además de este revelado, hay un detalle digno de mención: un botón “AI Mode” claramente visible en la barra de herramientas de Chrome, pero en realidad “no” usa la Gemini Nano local. Es la puerta de entrada a la experiencia de “búsqueda generativa” (Search Generative Experience, SGE) y las consultas siguen enviándose a los servidores de Google.

Los usuarios ven que el navegador tiene “AI Mode” y también ven en el dispositivo un archivo de modelo de 4GB; es razonable inferir “AI Mode = modelo local”. Pero en realidad:

Botón de AI Mode: API de Gemini en la nube; las consultas se suben a Google

Modelo de 4GB weights.bin: Gemini Nano local, usado para funciones integradas en Chrome como ayuda de escritura, resúmenes, detección de estafas, etc.

Ambos no son el mismo sistema y Google no explicó suficientemente a los usuarios. Para los usuarios preocupados por la privacidad, podría llevarlos a creer que usar AI Mode es “procesamiento local”, mientras que en realidad aún se envían sus datos a la nube. Este problema de diseño de UI es otra crítica importante planteada en el artículo de Hanff, además de la “instalación silenciosa”.

Efecto práctico para usuarios de Taiwán: verifiquen el directorio de instalación de su Chrome (Windows: C:\Users\…\AppData\Local\Google\Chrome, macOS: ~/Library/Application Support/Google/Chrome/) y comprueben si existe la carpeta OptGuideOnDeviceModel y el archivo weights.bin. Si quieren impedir futuras descargas automáticas, actualmente no hay opciones públicas para consumidores; solo pueden desactivarlo mediante las herramientas de administración de Chrome Enterprise.

Este artículo Chrome instala en silencio el modelo Gemini Nano de 4GB: el investigador revela que podría violar leyes de privacidad de la UE apareció por primera vez en 鏈新聞 ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Anthropic compite con el poder de cómputo de SpaceX: logra Colossus 1 con 22.000 GPU en toda la infraestructura, Claude elimina los límites de uso

Anthropic anunció que llegó a un acuerdo de colaboración de potencia informática con SpaceX para el centro de datos Colossus 1, utilizando más de 220.000 GPU Nvidia, con una capacidad de más de 300MW. Se espera que en el plazo de un mes se despliegue completamente para el uso de Anthropic, mejorando el rendimiento y la experiencia de Claude y Code. Al mismo tiempo, se amplían los límites de uso por cada 5 horas para Pro/Max/Team/Enterprise, se elimina el límite en horas pico y se incrementa la velocidad de la API de Opus. La infraestructura en Asia y Europa también se expande simultáneamente; a futuro hay otras intenciones como “cómputo de IA en órbita”, aunque aún no se ha cerrado ningún contrato.

ChainNewsAbmediaHace5m

Ingeniero de Coinbase: los agentes de IA podrían alterar el modelo de publicidad web

Erik Reppel, un ingeniero de Coinbase, dijo que los agentes de inteligencia artificial podrían socavar fundamentalmente el modelo de negocio de internet, que depende de la publicidad. Según Reppel, la economía web depende en gran medida de los ingresos publicitarios generados por usuarios humanos, pero los agentes de IA eluden ese sistema

CryptoFrontierHace39m

xAI se asocia con Anthropic para proporcionar acceso a la computación Colossus

Según declaraciones oficiales de xAI y Anthropic, las dos empresas han establecido una nueva asociación de computación. SpaceX's xAI ha firmado un acuerdo para proporcionar a Anthropic acceso a recursos de computación de Colossus. Anthropic planea aprovechar esta capacidad computacional adicional para

GateNewsHace59m

OpenAI publica el protocolo de la red supercomputadora MRC. En colaboración con NVIDIA, AMD y Microsoft para crear la infraestructura de Stargate

OpenAI publica el protocolo MRC para una red de supercomputación de IA, en colaboración con AMD, Microsoft, NVIDIA, etc., y lo abre bajo OCP. MRC divide los datos y los hace seguir múltiples rutas al mismo tiempo, evita obstáculos a nivel de microsegundos, reduce la congestión y mantiene la sincronización de GPU, resolviendo el cuello de botella de transmisión en grandes clústeres de entrenamiento. Sitios base como Stargate en Abilene, Texas, ya han desplegado interfaces de 800Gb/s y se han puesto en marcha en entrenamientos reales.

ChainNewsAbmediahace1h

La plataforma de contratación con IA Ethos cierra una ronda de financiación Serie A de 22,75 millones de dólares liderada por a16z el 6 de mayo

Según BlockBeats, la plataforma de contratación de IA con sede en Londres Ethos completó una ronda de financiación Serie A de 22,75 millones de dólares el 6 de mayo, con Andreessen Horowitz (a16z) liderando la ronda y General Catalyst participando. La plataforma utiliza IA para entrevistar a los candidatos y analiza

GateNewshace2h

OpenAI lanza el protocolo de red MRC con AMD, Intel, NVIDIA; admite 100.000+ GPUs

Según el anuncio de OpenAI del 6 de mayo, la empresa se asoció con AMD, Broadcom, Intel, Microsoft y NVIDIA para lanzar Multipath Reliable Connection (MRC), un protocolo de red abierto para la interconexión de GPU en clústeres de entrenamiento de IA a gran escala. El protocolo divide una sola transmisión de datos en

GateNewshace3h
Comentar
0/400
Sin comentarios