¿Podría violar la ley de la UE? Google Chrome ayuda a los usuarios a instalar modelos de IA de 4 GB sin su consentimiento, y si los desinstalan, vuelven a instalarse

Se ha descubierto que Google Chrome descarga en secreto modelos de IA de 4GB para los usuarios, y que incluso después de eliminarlos, se vuelven a instalar de forma forzada. Esta acción podría violar las leyes de privacidad de la Unión Europea, además de transferir grandes volúmenes de tráfico y costos ambientales a la población, siendo criticada como una “modo oscuro” que priva a los usuarios de sus derechos.

Investigador de seguridad descubre que Google Chrome descarga modelos de IA sin autorización

El reconocido investigador de seguridad Alexander Hanff, en su último informe, señala que el navegador Google Chrome descarga en secreto aproximadamente 4GB de modelos de IA terminales en el equipo del usuario sin previo aviso ni consentimiento.

Para verificar la situación, Hanff realizó pruebas comparativas en macOS usando un perfil completamente nuevo de Chrome. A través de los registros de eventos del sistema, independientes de la aplicación, logró documentar con precisión la actividad de los archivos.

Instalación automática sin interacción, que se vuelve a forzar tras eliminar

El análisis de Hanff muestra que Chrome crea automáticamente un directorio de modelos y descarga los 4GB completos en segundo plano, sin interacción del usuario. Chrome escribe un archivo llamado weights.bin en el disco, que forma parte del sistema de IA terminal basado en el modelo Gemini Nano ligero de Google.

Se indica que, siempre que el sistema del equipo cumpla con ciertos requisitos de hardware, el proceso de descarga se inicia automáticamente. Todo esto ocurre en unos 14 minutos durante períodos de aparente inactividad del navegador.

Fuente: Informe de Alexander Hanff. Alexander Hanff, investigador, señala que Google Chrome descarga en secreto modelos de IA de unos 4GB en el equipo del usuario.

Sin embargo, Chrome no muestra ninguna advertencia indicando que se almacenarán en el equipo modelos de IA de varios gigabytes, ni ofrece opciones de configuración intuitivas para impedir la descarga. Incluso si el usuario detecta y elimina el archivo, el navegador volverá a descargarlo posteriormente, a menos que acceda a funciones experimentales en el sistema profundo o elimine Chrome por completo.

También señala que los archivos de estado internos de Chrome son evidencia sólida, ya que muestran que el navegador evalúa activamente el rendimiento del hardware del sistema antes de la descarga y lo marca como apto para el modelo terminal. Esto implica que Chrome decide unilateralmente qué dispositivos deben recibir el modelo, una decisión completamente discrecional.

El investigador acusa que Chrome podría estar violando leyes de la UE

Además de revelar detalles técnicos, Hanff plantea dudas a nivel legal.

Anteriormente criticó que la versión de escritorio de Claude, desarrollado por Anthropic, parecía un “software espía”, señalando que instalaba silenciosamente puentes de integración en múltiples navegadores basados en Chromium, incluso incluyendo cinco navegadores que él no había instalado; ahora descubre que Chrome descarga archivos de modelos de IA sin aviso, todo sin que el usuario lo sepa ni se le informe de forma sustancial, y que tras eliminar los programas integrados, vuelven a instalarse.

Asegura que las acciones de ambas compañías probablemente violan regulaciones de la UE, incluyendo la Directiva de Privacidad Electrónica de la UE respecto al almacenamiento de datos en dispositivos del usuario, y las reglas generales de protección de datos que exigen transparencia y procesamiento legal.

Aunque sus reclamaciones aún no han sido resueltas en tribunales, reflejan la creciente tensión entre las grandes tecnológicas y las autoridades regulatorias, especialmente en Europa.

  • Informe relacionado:** La versión de escritorio de Claude es acusada de ser “software espía”! ¡Modifica configuraciones sin consentimiento, lo que podría violar la ley de la UE!**

¿Google transfiere costos energéticos y de ancho de banda a los usuarios globales?

Hanff también estimó el impacto ambiental de la descarga silenciosa del modelo de IA de 4GB por parte de Chrome. Si se despliega en millones o incluso miles de millones de dispositivos, calcula que las emisiones de CO2 equivalentes generadas solo por distribuir los archivos podrían alcanzar decenas de miles de toneladas, casi igualando las emisiones anuales de decenas de miles de autos.

Fuente: Informe de Alexander Hanff. Alexander Hanff, investigador, presenta el impacto ambiental de la descarga no autorizada de archivos por parte de Google Chrome.

Aunque la estimación depende del tamaño y la estructura energética, él deja claro que distribuir archivos binarios de gran tamaño a los dispositivos de los usuarios tiene un costo muy alto, y que estos costos se externalizan al medio ambiente y a la sociedad.

Para muchos usuarios, también puede afectar el consumo de ancho de banda. En entornos con redes de fibra ilimitada, la descarga de 4GB puede ser insignificante, pero para usuarios con límites de datos o que pagan por volumen, la transferencia oculta de varios gigabytes puede traducirse en pérdidas económicas reales. Incluso en mercados desarrollados, quienes usan puntos de acceso móvil o en zonas remotas también se ven afectados.

Las grandes tecnológicas actúan a espaldas de los usuarios, sacrificando derechos en modo oscuro

Desde la perspectiva de Hanff, tanto Anthropic como Google optan por actuar a espaldas del usuario, dejando que asuman las consecuencias.

Ya sea mediante registros profundos en segundo plano o descargas de modelos de varios gigabytes sin aviso, el patrón es el mismo. Los dispositivos del usuario se consideran objetivos de despliegue, privando a los usuarios de control activo, en línea con el “modo oscuro” que ha sido criticado en el diseño de software durante mucho tiempo.

El modo oscuro, también llamado “diseño engañoso”, es una interfaz cuidadosamente diseñada para engañar o confundir a los usuarios, induciéndolos a realizar acciones que no desean, beneficiando a los desarrolladores pero sacrificando los derechos del usuario.

En el caso de las acusaciones de Hanff, las funciones del usuario no solo están preconfiguradas para activarse, sino que están ocultas tras configuraciones confusas o implementadas de manera difícil de eliminar. Su investigación muestra que la tendencia hacia modelos de IA terminales no ha mejorado los problemas del modo oscuro, sino que incluso acelera este tipo de prácticas nocivas.

Lecturas adicionales:
¿El fabricante chino de drones expone la seguridad de sus usuarios? ¿Usa Claude para ingeniería inversa y obtiene control global de dispositivos, o compra juguetes de IA? Bondu revela 50,000 datos de niños, y Miiloo promueve que Taiwán es parte de China.

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado