¿Podría violar la ley de la UE? Google Chrome ayuda a los usuarios a instalar modelos de IA de 4 GB sin su consentimiento, y se vuelve a instalar incluso después de desinstalarlo.

Se ha descubierto que Google Chrome descarga en secreto modelos de IA de 4GB para los usuarios, y que incluso después de eliminarlos, se vuelven a instalar de forma forzada. Esta acción podría violar las leyes de privacidad de la Unión Europea, además de transferir grandes volúmenes de tráfico y costos ambientales a la población, siendo criticada como una “modo oscuro” que priva a los usuarios de sus derechos.

Investigador de seguridad descubre que Google Chrome descarga modelos de IA sin autorización

El reconocido investigador de seguridad Alexander Hanff, en su último informe, señala que el navegador Google Chrome descarga en secreto aproximadamente 4GB de modelos de IA terminales en el equipo del usuario sin previo aviso ni consentimiento.

Para verificar la situación, Hanff realizó pruebas comparativas en macOS usando un perfil completamente nuevo de Chrome. A través de los registros de eventos del sistema, independientes de la aplicación, logró documentar con precisión la actividad de archivos.

Instalación automática sin interacción, que se vuelve a forzar tras eliminarse

El análisis de Hanff muestra que Chrome crea automáticamente un directorio de modelos y descarga un total de 4GB en segundo plano, sin interacción del usuario. Chrome escribe un archivo llamado weights.bin en el disco, que forma parte del sistema de IA terminal basado en el modelo Gemini Nano ligero de Google.

Se indica que, siempre que el sistema del equipo cumpla con ciertos requisitos de hardware, el proceso de descarga se inicia automáticamente. Todo esto ocurre en unos 14 minutos durante períodos de navegación aparentemente inactivos.

Fuente: Informe de Alexander Hanff. Alexander Hanff, investigador, señala que Google Chrome descarga en secreto modelos de IA de 4GB en el equipo del usuario.

Sin embargo, Chrome no muestra ninguna advertencia indicando que se almacenarán en el equipo modelos de IA de varios gigabytes, ni ofrece opciones de configuración intuitivas para impedir la descarga. Incluso si el usuario detecta y elimina el archivo, el navegador volverá a descargarlo posteriormente, a menos que acceda a funciones experimentales en el sistema o elimine Chrome por completo.

También señala que los archivos de estado internos de Chrome son evidencia sólida, ya que muestran que el navegador evalúa activamente el rendimiento del hardware antes de la descarga y marca los dispositivos como aptos para recibir el modelo terminal. Esto implica que Chrome decide unilateralmente qué dispositivos deben recibir el modelo, sin consulta ni consentimiento.

El investigador acusa que Chrome podría estar violando leyes de la UE

Además de revelar detalles técnicos, Hanff plantea dudas a nivel legal.

Anteriormente criticó que la versión de escritorio de Claude, de Anthropic, parecía un “software espía”, ya que instalaba en silencio puentes de integración en varios navegadores basados en Chromium, incluso incluyendo cinco navegadores que él no había instalado; ahora descubre que Chrome descarga archivos de modelos de IA sin aviso, todo sin que el usuario lo sepa ni lo autorice, y que la eliminación del software no impide que se vuelva a instalar.

Asegura que las acciones de estas dos compañías probablemente violan regulaciones de la UE, incluyendo la Directiva de Privacidad Electrónica de la UE respecto al almacenamiento de datos en dispositivos del usuario, y las reglas generales de protección de datos que exigen transparencia y procesamiento legal.

Aunque sus reclamaciones aún no han sido resueltas en tribunales, reflejan la creciente tensión entre las grandes tecnológicas y las autoridades regulatorias, especialmente en Europa.

  • Artículo relacionado:****¿Se cuestiona a Claude de Anthropic como “software espía”? ¡Se instala sin consentimiento y se sospecha que viola la ley de la UE!

Google transfiere costos energéticos y de ancho de banda a los usuarios globales?

Hanff también estimó el impacto ambiental de la descarga silenciosa del modelo de IA de 4GB por parte de Chrome. Si se despliega en millones o incluso miles de millones de dispositivos, la emisión total de CO2 equivalente por la distribución de archivos podría alcanzar decenas de miles de toneladas, casi igualando las emisiones anuales de decenas de miles de autos.

Fuente: Informe de Alexander Hanff. Alexander Hanff, investigador, presenta el impacto ambiental de la descarga no autorizada de archivos por parte de Google Chrome.

Aunque la estimación depende del tamaño y la estructura energética, él deja claro que distribuir archivos binarios de gran tamaño a los dispositivos de los usuarios tiene un costo muy alto, y que estos costos son externalizados al medio ambiente y a la sociedad.

Para muchos usuarios, también puede afectar el consumo de ancho de banda. En entornos con fibra ilimitada, la descarga de 4GB puede ser insignificante, pero para usuarios con límites de datos o que pagan por volumen, la transferencia oculta de varios gigabytes puede traducirse en pérdidas económicas reales. Incluso en mercados desarrollados, quienes usan puntos de acceso móviles o en zonas remotas también se verían afectados.

Las grandes tecnológicas actúan a espaldas de los usuarios, en modo oscuro y a costa de sus derechos

Desde la perspectiva de Hanff, tanto Anthropic como Google optan por actuar a espaldas del usuario, dejando que asuman las consecuencias.

Ya sea mediante registros profundos en secreto o descargas de modelos de varios gigabytes en segundo plano, el patrón es el mismo. Los dispositivos de los usuarios son considerados como objetivos de despliegue, privándolos del control activo, en línea con el “modo oscuro” que ha sido criticado en el diseño de software durante mucho tiempo.

El modo oscuro, también llamado “diseño engañoso”, es una interfaz cuidadosamente diseñada para engañar o confundir a los usuarios, induciéndolos a realizar acciones que no desean, beneficiando a los desarrolladores pero sacrificando los derechos del usuario.

En el caso de las acusaciones de Hanff, las funciones del usuario no solo están preconfiguradas para activarse, sino que están ocultas tras configuraciones confusas o implementadas de forma difícil de eliminar. Su investigación muestra que la tendencia hacia modelos de IA terminal no ha mejorado los problemas del modo oscuro, sino que incluso acelera su desarrollo negativo.

Lecturas complementarias:
¿El fabricante chino de drones expone la seguridad de sus usuarios? ¿Cómo logró Claude mediante ingeniería inversa obtener control sobre dispositivos globales y aún comprar juguetes de IA? ¿Se filtraron 50,000 datos de niños por Bondu? ¿Miiloo promueve que Taiwán es parte de China?

Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado