À l'intérieur de la controverse sur les lunettes intelligentes Ray-Ban qui fait rage chez Meta

Decrypt

En résumé

  • Des entrepreneurs basés à Nairobi ont examiné des images sensibles capturées par les lunettes intelligentes de Meta.
  • Meta indique que le contenu peut être filtré avant une revue humaine pour protéger la vie privée.
  • Les régulateurs britanniques cherchent des informations sur les pratiques de protection des données de Meta.

Une société de données basée à Nairobi a déclaré avoir examiné des images sensibles capturées par les lunettes intelligentes Ray-Ban de Meta après que le géant technologique a sollicité la société kényane pour la formation d’IA à l’étranger.
« Dans certaines vidéos, on peut voir quelqu’un aller aux toilettes, ou se déshabiller », a déclaré une source anonyme aux journalistes la semaine dernière. « Je ne pense pas qu’ils sachent, car s’ils savaient, ils ne filmaient pas. »
Ces affirmations proviennent d’une enquête conjointe publiée vendredi par les journaux suédois Svenska Dagbladet et Göteborgs-Posten.

John Davisson, directeur adjoint de l’application à l’Electronic Privacy Information Center, a déclaré que la technologie soulève des préoccupations plus larges sur la façon dont les appareils portables collectent et utilisent les données personnelles, notamment en milieu public.
« La personne portant les lunettes ne peut pas donner son consentement au nom de toutes les personnes qu’elle rencontre en utilisant ces lunettes », a-t-il déclaré à Decrypt. « Que ce soit dans des lieux publics ou privés, comme des vestiaires, des toilettes ou d’autres espaces intimes. »
Davisson a également indiqué que former des systèmes d’IA à partir de ces images augmente le risque car les données peuvent inclure des visages, des voix et d’autres informations personnelles identifiables.
« Vous augmentez les préoccupations concernant la vie privée et la protection des données, car vous utilisez les informations personnelles des gens pour construire votre propre modèle », a-t-il expliqué.

Il n’est pas surprenant pour Davisson d’apprendre que des images de lunettes enregistrant des personnes dans des situations intimes ont été rapportées, et il suggère que les entreprises pourraient attribuer ces enregistrements à de fausses activations ou à d’autres explications techniques.
« Mais il reste que ces enregistrements capturent des informations sensibles que aucun consommateur raisonnable ne souhaiterait voir enregistrées par ses lunettes intelligentes », a-t-il ajouté.

Réaction réglementaire
Le Bureau de la commissaire à l’information du Royaume-Uni a déclaré à BBC News mercredi qu’il contacterait Meta pour demander des informations sur la conformité de l’entreprise avec la législation britannique sur la protection des données, précisant que les appareils traitant des données personnelles, y compris les lunettes intelligentes, doivent assurer la transparence et permettre aux utilisateurs de garder le contrôle de leurs données.

Les lunettes intelligentes de Meta, développées avec la marque de lunettes Ray-Ban et annoncées pour la première fois en 2023, permettent aux utilisateurs d’enregistrer des vidéos à la première personne, de poser des questions sur leur environnement et d’interagir avec l’assistant IA de Meta.
Plus de 7 millions de paires ont été vendues en 2025, contre 2 millions en 2023 et 2024, selon un rapport de CNBC publié le mois dernier.

Les images enregistrées par les lunettes peuvent être envoyées à des contractants humains qui examinent et étiquettent le contenu utilisé pour entraîner les systèmes d’IA, selon les conditions d’utilisation de Meta AI.
« Dans certains cas, Meta examinera vos interactions avec les IA, y compris le contenu de vos conversations ou messages avec les IA, et cet examen peut être automatisé ou manuel (humain) », selon les termes de Meta.
Meta affirme qu’il ne peut pas lire ni accéder aux messages partagés lorsque l’utilisateur diffuse des informations privées à ses amis, sa famille ou ses IA en utilisant la technologie de traitement.

Cependant, la société peut utiliser le contenu des utilisateurs et les informations associées via des systèmes automatisés, une revue humaine ou par des fournisseurs tiers pour améliorer ses services et mener des recherches.
Elle peut également effectuer des recherches sur le contenu d’un utilisateur pour assurer la conformité à ses propres politiques et aux lois applicables, tout en supprimant le contenu qui viole ses règles, affirme l’entreprise.

L’enquête de Svenska Dagbladet et Göteborgs-Posten a identifié le sous-traitant de données basé à Nairobi pour Meta comme Sama, qui emploie des travailleurs à Nairobi pour entraîner les systèmes d’IA en annotant manuellement des données, y compris des vidéos, des images et des discours, pour les services d’IA de Meta.
« Chaque image doit être décrite, étiquetée et contrôlée pour la qualité », indique le rapport. « Tout cela pour rendre la prochaine génération de lunettes intelligentes un peu plus intelligente, un peu plus humaine. »

Les travailleurs ont confié aux journaux suédois avoir examiné des images comprenant des personnes utilisant les toilettes, changeant de vêtements, des numéros de carte de crédit et des activités sexuelles explicites.
« Il y a aussi des scènes de sexe filmées avec les lunettes intelligentes. Quelqu’un les porte, ayant des relations sexuelles. C’est pourquoi c’est extrêmement sensible », a déclaré un contractant aux journalistes. « Il y a des caméras partout dans nos bureaux, et il est interdit d’apporter ses propres téléphones ou tout appareil pouvant enregistrer. »
Les contractants ont également dit aux journaux qu’ils se sentaient incapables de remettre en question les missions de peur de perdre leur emploi.
« Quand vous voyez ces vidéos, c’est comme ça. Mais comme c’est un travail, vous devez le faire », a dit un autre. « Vous comprenez que vous regardez la vie privée de quelqu’un, mais en même temps, on attend simplement de vous que vous accomplissiez le travail. Vous n’êtes pas censé le remettre en question. Si vous commencez à poser des questions, vous êtes viré. »

Meta n’a pas répondu à une demande de commentaire de Decrypt.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)