Im Inneren der Ray-Ban Smart Glasses Kontroverse, die Meta plagt

Decrypt

Kurz gefasst

  • In Nairobi ansässige Auftragnehmer überprüften intime Aufnahmen, die mit Metas Smart-Brillen aufgenommen wurden.
  • Meta erklärt, dass Inhalte vor der menschlichen Überprüfung gefiltert werden können, um die Privatsphäre zu schützen.
  • Britische Regulierungsbehörden fordern Informationen zu Metas Datenschutzpraktiken an.

Ein in Nairobi ansässiges Datenunternehmen gab bekannt, dass es sensible Aufnahmen überprüft hat, die mit Metas Ray-Ban Smart-Brillen aufgenommen wurden, nachdem der Technologieriese das kenianische Unternehmen für Offshore-KI-Training engagiert hatte. „In manchen Videos sieht man jemanden auf die Toilette gehen oder sich ausziehen“, sagte eine anonyme Quelle letzte Woche gegenüber Reportern. „Ich glaube nicht, dass sie es wissen, denn wenn sie es wüssten, würden sie nicht aufnehmen.“ Die Behauptungen stammen aus einer gemeinsamen Untersuchung, die am Freitag von den schwedischen Zeitungen Svenska Dagbladet und Göteborgs-Posten veröffentlicht wurde.

John Davisson, stellvertretender Leiter der Durchsetzungsabteilung beim Electronic Privacy Information Center, sagte, die Technologie wirft größere Bedenken hinsichtlich der Sammlung und Nutzung persönlicher Daten durch tragbare Geräte auf, insbesondere in öffentlichen Räumen. „Der Träger der Brille kann nicht im Namen aller Menschen, denen er begegnet, zustimmen, während er diese Brille benutzt“, sagte Davisson gegenüber Decrypt. „Ob in öffentlichen oder privaten Räumen, wie Umkleideräumen, Toiletten oder anderen intimen Bereichen.“ Davisson fügte hinzu, dass das Training von KI-Systemen mit diesen Aufnahmen das Risiko erhöht, da die Daten erkennbare Gesichter, Stimmen und andere persönliche Informationen enthalten können. „Sie verschärfen die Datenschutz- und Datensicherheitsbedenken, weil Sie persönliche Informationen von Menschen nehmen und sie verwenden, um Ihr eigenes Modell zu entwickeln“, sagte er.

Davisson zeigte sich nicht überrascht darüber, dass die Brille Menschen in intimen Situationen aufzeichnet, und vermutete, dass Unternehmen solche Aufnahmen auf Fehlaktivierungen oder andere technische Erklärungen zurückführen könnten. „Aber die Tatsache bleibt, dass sie sensible Informationen erfassen, die kein vernünftiger Verbraucher möchte, dass seine Smart-Brille aufzeichnet“, sagte er. Regulatorischer Widerstand Das britische Information Commissioner’s Office (ICO) teilte BBC News am Mittwoch mit, dass es Meta kontaktieren werde, um Informationen darüber anzufordern, wie das Unternehmen die britischen Datenschutzgesetze einhält, und betonte, dass Geräte, die personenbezogene Daten verarbeiten, einschließlich Smart-Brillen, Transparenz bieten und den Nutzern Kontrolle über ihre Daten ermöglichen sollten. Metas Smart-Brillen, die in Zusammenarbeit mit der Brillenmarke Ray-Ban entwickelt wurden und erstmals 2023 vorgestellt wurden, ermöglichen es Nutzern, First-Person-Videos aufzunehmen, Fragen zu ihrer Umgebung zu stellen und mit Metas KI-Assistent zu interagieren. Laut einem Bericht von CNBC wurden im Jahr 2025 mehr als 7 Millionen Paare verkauft, verglichen mit insgesamt 2 Millionen Einheiten in den Jahren 2023 und 2024. Aufnahmen, die mit den Brillen gemacht werden, können an menschliche Auftragnehmer gesendet werden, die das Material überprüfen und kennzeichnen, um KI-Systeme zu trainieren, so die Nutzungsbedingungen von Meta AI. „In einigen Fällen wird Meta Ihre Interaktionen mit KIs überprüfen, einschließlich des Inhalts Ihrer Gespräche mit oder Nachrichten an KIs, und diese Überprüfung kann automatisiert oder manuell (menschlich) erfolgen“, heißt es in den Bedingungen. Meta behauptet, dass es keine privaten Nachrichten lesen oder auf sie zugreifen kann, wenn ein Nutzer private Informationen mit Freunden, Familie oder KIs teilt, da dies durch Verarbeitungstechnologien geschützt ist.

Dennoch kann das Unternehmen Nutzerinhalte und verwandte Informationen durch automatisierte Systeme, menschliche Überprüfung oder durch Drittanbieter nutzen, um seine Dienste zu verbessern und Forschung zu betreiben. Es kann auch Inhalte der Nutzer untersuchen, um die Einhaltung eigener Richtlinien und geltender Gesetze sicherzustellen, während es Inhalte entfernt, die gegen die Regeln verstoßen, so das Unternehmen. Die Untersuchung von Svenska Dagbladet und Göteborgs-Posten identifizierte den in Nairobi ansässigen Daten-Subunternehmer von Meta als Sama, das in Nairobi Arbeiter beschäftigt, die KI-Systeme trainieren, indem sie Daten manuell annotieren, einschließlich Videos, Bilder und Sprache für Metas KI-Dienste. „Jedes Bild muss beschrieben, gekennzeichnet und qualitätsgesichert werden“, heißt es in dem Bericht. „Alles, um die nächste Generation intelligenterer, menschlicherer Smart-Brillen zu entwickeln.“ Arbeitnehmer berichteten den schwedischen Zeitungen, dass sie Aufnahmen überprüften, die Menschen beim Toilettengang, beim Kleiderwechsel, bei Kreditkartennummern und expliziten sexuellen Aktivitäten zeigten. „Es gibt auch Sexszenen, die mit den Smart-Brillen gefilmt wurden. Jemand trägt sie und hat Sex. Deshalb ist das so extrem sensibel“, sagte ein Auftragnehmer gegenüber Reportern. „Überall in unserem Büro gibt es Kameras, und es ist verboten, eigene Telefone oder Geräte mit Aufnahmefunktion mitzubringen.“ Die Auftragnehmer sagten den Zeitungen auch, dass sie sich nicht trauten, die Aufträge zu hinterfragen, aus Angst, ihren Job zu verlieren. „Wenn man diese Videos sieht, fühlt es sich so an. Aber weil es ein Job ist, muss man es machen“, sagte ein anderer. „Man versteht, dass man in das Privatleben anderer schaut, aber gleichzeitig wird von einem erwartet, die Arbeit auszuführen. Man soll es nicht hinterfragen. Wenn man Fragen stellt, ist man weg.“

Meta reagierte nicht auf eine Anfrage nach einem Kommentar von Decrypt.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare
Handeln Sie jederzeit und überall mit Kryptowährungen
qrCode
Scannen, um die Gate App herunterzuladen
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)