Meta’s KI überschwemmt Ermittler im Bereich Kindesmissbrauch mit 'nutzlosen' Tipps, behaupten Strafverfolgungsbehörden

Decrypt

Kurzfassung

  • ICAC-Beamte sagen, dass Metas KI-Tipps Ermittler mit unbrauchbaren Berichten überfluten.
  • Dies geschieht im Zuge von Vorwürfen durch eine Klage des Bundesstaates New Mexico, die besagt, dass Metas KI die Ermittlungen zu Kindesmissbrauch erschwert.
  • Meta konterte und erklärte, dass das Unternehmen schnell mit Strafverfolgungsbehörden zusammenarbeite und Berichte vor der Einreichung prüfe.

Laut einem Bericht von The Guardian führt Metas Einsatz künstlicher Intelligenz zur Überwachung seiner Plattformen zu einer großen Menge an minderwertigen Berichten, die Ressourcen binden und Ermittlungen zu Kindesmissbrauch verzögern. Die Nachricht kommt, nachdem Strafverfolgungsbeamte aus New Mexico letzte Woche ausgesagt hatten, dass KI-generierte Berichte die Ermittler überwältigen und Fälle von Kinderexploitation verzögern. Mitarbeiter des Internet Crimes Against Children (ICAC)-Teams nannten speziell Metas automatisierte Systeme, die monatlich Tausende unbrauchbarer Hinweise generieren, die an die Strafverfolgung weitergeleitet werden. „Wir erhalten viele Hinweise von Meta, die einfach nur Müll sind“, sagte Benjamin Zwiebel, ein Sonderagent des ICAC-Teams in New Mexico, während des Prozesses gegen das Unternehmen.

 Ein weiterer ICAC-Beamter, der anonym spricht, sagte gegenüber The Guardian, dass sich die Cybertipps der Abteilung von 2024 bis 2025 verdoppelt haben. „Es ist ziemlich überwältigend, weil wir so viele Berichte bekommen, aber die Qualität der Berichte ist wirklich mangelhaft, was unsere Fähigkeit betrifft, ernsthafte Maßnahmen zu ergreifen“, sagte er. In einer mit Decrypt geteilten Erklärung erklärte ein Meta-Sprecher, dass das Unternehmen schon lange mit Strafverfolgungsbehörden zusammenarbeite und dass das Justizministerium sowie das National Center for Missing & Exploited Children die Berichtsprozesse lobten.

„Im Jahr 2024 erhielten wir über 9.000 Notfallanfragen von US-Behörden und lösten diese im Durchschnitt innerhalb von 67 Minuten, bei Fällen, die Kindeswohl und Suizid betreffen, sogar noch schneller“, sagte der Sprecher. „Im Einklang mit geltendem Recht melden wir auch offensichtliche Bilder von Kindesmissbrauch an NCMEC und unterstützen sie dabei, Berichte zu priorisieren, von der Unterstützung beim Aufbau ihres Fallmanagement-Tools bis hin zur Kennzeichnung von Cybertips, damit sie wissen, welche dringend sind“, fügte er hinzu. ICAC-Beamte sagten jedoch, dass einige der von Meta gesendeten Berichte keinen kriminellen Charakter haben, während andere die glaubwürdigen Beweise vermissen lassen, die für eine Verfolgung notwendig sind. Der Anstieg folgt dem Report Act, der im Mai 2024 verabschiedet wurde und die Meldepflichten auf geplanten oder unmittelbar bevorstehenden Missbrauch, Kinderhandel und verwandte Ausbeutung ausdehnt, während Unternehmen verpflichtet werden, Beweismaterial länger aufzubewahren. Nach Zahlen Meta bleibt die größte Quelle für Berichte an NCMECs CyberTipline, die im Jahr 2024 etwa zwei Drittel der 20,5 Millionen Tipps ausmachten, gegenüber 36,2 Millionen im Jahr 2023. Der Rückgang wird teilweise auf Änderungen in Metas Meldepraktiken zurückgeführt. Laut dem Integritätsbericht von August 2025 sandten Facebook, Instagram und Threads im zweiten Quartal 2025 mehr als 2 Millionen CyberTip-Berichte an NCMEC. Davon waren über 528.000 unangemessene Interaktionen mit Kindern, während mehr als 1,5 Millionen die Weitergabe oder das Teilen von kinderpornografischem Material betrafen. Trotz dieser Zahlen sagte JB Branch, ein Politikbefürworter bei Public Citizen, dass die verstärkte Nutzung von KI die Effizienz des Report Act für Ermittler bei der Fallprüfung verringert habe, da Algorithmen zwar schon lange die Arbeitsbelastung der Moderatoren reduzieren, menschliche Prüfer jedoch die effektivste Filtermethode seien. „Ein Teil des Problems ist, dass viele dieser Tech-Unternehmen Content-Moderatoren entlassen und durch KI-Sicherheitsfunktionen ersetzt haben“, sagte Branch gegenüber Decrypt. „Dadurch werden viel zu viele Falschpositive herausgefiltert, nur aus übermäßiger Vorsicht.“ Früher gab es laut Branch in der Review-Kette mehr menschliche Prüfer, die Inhalte identifizieren und entfernen konnten, die keine Eskalation rechtfertigten. „Da diese Unternehmen menschliche Content-Moderatoren oder Prüfer aus der Kette entfernt haben, werden viel mehr Dinge durchgelassen, weil sie auf Nummer sicher gehen wollen“, sagte er. „Sie ziehen im Grunde ein größeres Netz und erfassen Dinge, die eigentlich nicht qualifizieren, und verlassen sich stark auf KI-Tools, um das zu tun.“ Ermittler berichten, dass die Auswirkungen fehlerhafter KI-generierter Tipps nun in den Task Forces spürbar sind, die diese prüfen. „Das zerstört die Moral. Wir ertrinken in Tipps, und wir wollen raus und diese Arbeit machen“, sagte ein ICAC-Beamter angeblich. „Wir haben nicht das Personal, um den Ansturm zu bewältigen. Es ist unmöglich, mit der Flut Schritt zu halten.“

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare
Handeln Sie jederzeit und überall mit Kryptowährungen
qrCode
Scannen, um die Gate App herunterzuladen
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)