Est-ce une violation potentielle du droit de l'Union européenne ? Google Chrome installe secrètement un modèle d'IA de 4 Go pour l'utilisateur, et il se réinstalle même après désinstallation.

Des études ont révélé que Google Chrome télécharge discrètement 4 Go de modèles d’IA pour les utilisateurs, et qu’il se réinstalle même après suppression. Cette pratique pourrait violer la législation européenne sur la vie privée, tout en transférant un volume important de trafic et de coûts environnementaux au public, ce qui lui a valu d’être critiqué comme un « mode sombre » privant les utilisateurs de leurs droits.

Les chercheurs en sécurité informatique découvrent que Google Chrome télécharge des modèles d’IA en cache

Le chercheur en sécurité renommé Alexander Hanff a récemment rapporté que, le navigateur Google Chrome télécharge discrètement environ 4 Go de modèles d’IA terminale sur l’ordinateur de l’utilisateur sans notification préalable ni consentement.

Pour vérifier cette situation, Hanff a effectué des tests comparatifs sur macOS en utilisant un nouveau profil Chrome. Il a enregistré avec succès le tracé précis des activités de fichiers via le journal d’événements du système, indépendant de l’application.

Installation automatique sans interaction, réinstallation après suppression

L’analyse de Hanff montre que Chrome crée automatiquement un répertoire de modèles et télécharge 4 Go de données en arrière-plan, sans interaction de l’utilisateur. Chrome écrit un fichier nommé weights.bin sur le disque, qui fait partie du système d’IA terminale basé sur le modèle léger Gemini Nano développé par Google.

L’analyse indique que, dès que votre système répond à certains critères matériels, le téléchargement se lance automatiquement. Tout ce processus, qui semble se produire lors de périodes d’inactivité du navigateur, ne dure que 14 minutes environ.

Source : Rapport d’Alexander Hanff. Dernier rapport de l’étude d’Alexander Hanff, indiquant que le navigateur Google Chrome télécharge discrètement environ 4 Go de modèles d’IA terminale sur l’ordinateur de l’utilisateur.

Cependant, Chrome ne montre aucune alerte indiquant qu’un modèle d’IA de plusieurs gigaoctets est stocké localement, ni ne propose d’option de configuration intuitive pour empêcher ce téléchargement. Même si l’utilisateur découvre et supprime manuellement le fichier, le navigateur le téléchargera à nouveau ultérieurement, sauf si l’on désactive les fonctionnalités expérimentales dans le système ou si l’on supprime directement Chrome.

Il souligne également que les fichiers d’état internes de Chrome corroborent cette pratique, en montrant que le navigateur a évalué activement la capacité matérielle du système avant le téléchargement, et a marqué l’appareil comme éligible au modèle terminal. Cela signifie que Chrome décide unilatéralement quels appareils doivent recevoir le modèle, sans consultation de l’utilisateur.

Le chercheur accuse Google Chrome de potentiellement violer la législation européenne

Outre la divulgation des détails techniques, Hanff soulève également des questions juridiques.

Il avait déjà critiqué la version de bureau de Claude, développé par Anthropic, comme étant une « logiciel espion », en soulignant qu’elle installait discrètement un pont d’intégration dans plusieurs navigateurs basés sur Chromium, y compris cinq navigateurs qu’il n’avait pas installés lui-même. Maintenant, il découvre que Chrome installe discrètement des fichiers de modèles d’IA, tout cela sans avertissement ni transparence, et que la suppression de ces programmes ne supprime pas leur réinstallation.

Il affirme que ces actions des deux entreprises sont très probablement contraires aux réglementations européennes, notamment la directive sur la vie privée électronique de l’UE, qui encadre le stockage de données sur l’appareil de l’utilisateur, ainsi que le Règlement général sur la protection des données (RGPD), qui exige transparence et traitement légitime.

Bien que ses revendications n’aient pas encore été tranchées par un tribunal, elles illustrent déjà la tension croissante entre les géants de la technologie, qui déploient de nouvelles fonctionnalités, et les autorités de régulation, en particulier en Europe.

  • Article associé : Claude version bureau accusée de « logiciel espion » ! Accès aux paramètres modifié sans consentement, potentiellement contraire à la législation européenne

Google transfère-t-il les coûts énergétiques et de bande passante aux utilisateurs mondiaux ?

Hanff a également estimé l’impact environnemental du téléchargement silencieux de 4 Go de modèles d’IA par Chrome. S’il était déployé sur des millions, voire des milliards d’appareils, il pourrait générer des émissions de CO2 équivalentes à plusieurs dizaines de milliers de tonnes, soit l’équivalent des émissions annuelles de plusieurs milliers de voitures.

Source : Rapport d’Alexander Hanff. Impact environnemental du téléchargement clandestin de fichiers par Google Chrome, selon Hanff.

Bien que cette estimation dépende de l’échelle et de la structure énergétique, il est clair que pousser de gros fichiers binaires vers les appareils des utilisateurs engendre des coûts très élevés, externalisés au climat et à la société.

Pour de nombreux utilisateurs, cela pourrait aussi poser problème en termes de consommation de bande passante. Dans un environnement à fibre illimitée, 4 Go de téléchargement peuvent sembler insignifiants, mais pour ceux avec une limite de données ou facturant au volume, le transfert discret de plusieurs gigaoctets peut entraîner des coûts financiers réels. Même dans les marchés développés, les utilisateurs utilisant un hotspot mobile ou en zone reculée seront affectés.

Les géants de la tech agissent en coulisses, au détriment des droits des utilisateurs

Selon Hanff, Anthropic et Google ont tous deux choisi une approche « en douce », laissant aux utilisateurs le soin d’assumer les conséquences.

Que ce soit par une intégration profonde non déclarée ou par un téléchargement en arrière-plan de plusieurs gigaoctets, le mode opératoire est le même. Les appareils des utilisateurs sont traités comme des cibles de déploiement, privant ces derniers de tout contrôle, ce qui s’inscrit dans une tendance de « mode sombre » souvent critiquée dans le développement logiciel.

Le « mode sombre », aussi appelé « design trompeur », désigne une interface utilisateur soigneusement conçue pour induire en erreur ou tromper l’utilisateur, afin de le pousser à faire des actions qu’il ne souhaite pas. Bien qu’avantageux pour les fabricants, cela sacrifie les droits de l’utilisateur.

Dans le cas de Hanff, cela se traduit par des fonctionnalités activées par défaut, dissimulées derrière des paramètres obscurs ou difficiles à supprimer. Ses recherches montrent que la tendance vers l’IA terminale n’a pas amélioré ces pratiques de « mode sombre », mais pourrait même accélérer leur développement.

Lectures complémentaires :
Les drones chinois exposent la sécurité des utilisateurs ? Hanff a utilisé Claude en ingénierie inverse pour prendre le contrôle mondial des appareils, achète-t-on encore des jouets IA ? Bondu a divulgué 50 000 données personnelles d’enfants, tandis que Miiloo prône : Taïwan fait partie de la Chine.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler