Коротко
Використання Meta штучного інтелекту для контролю своїх платформ створює великий обсяг низькоякісних звітів, що виснажують ресурси та сповільнюють розслідування випадків зловживань дітьми, повідомляє The Guardian.
Ця новина з’являється на тлі свідчень правоохоронців Нью-Мексико минулого тижня, що AI-звіти перевантажують слідчих і уповільнюють розслідування випадків дитячої експлуатації.
Спеціальні агенти з програми боротьби з кіберзлочинами проти дітей (ICAC) конкретно назвали автоматизовані системи Meta, заявивши, що вони щомісяця генерують тисячі непотрібних порад, які передаються правоохоронцям.
«Ми отримуємо багато порад від Meta, які — просто сміття», — свідчив Бенджамін Звібель, спеціальний агент ICAC у Нью-Мексико, під час судового процесу проти компанії.
Ще один офіцер ICAC, який просив залишитися анонімним, повідомив The Guardian, що кількість кібер-порад департаменту подвоїлася з 2024 по 2025 рік.
«Це досить важко, бо ми отримуємо так багато звітів, але їхня якість дуже низька, щоб ми могли серйозно діяти», — сказав він.
У заяві, наданій Decrypt, представник Meta зазначив, що компанія давно співпрацює з правоохоронними органами і відзначив, що Міністерство юстиції та Національний центр з пропаганди та боротьби з експлуатацією дітей хвалили її процес звітування.
«У 2024 році ми отримали понад 9000 термінових запитів від американських органів і розв’язали їх у середньому за 67 хвилин, а у випадках, що стосуються безпеки дітей і самогубств, — ще швидше», — сказав представник.
«Відповідно до чинного законодавства, ми також повідомляємо про явні зображення дитячої сексуальної експлуатації до NCMEC і підтримуємо їх у пріоритетності звітів, допомагаючи створювати їх інструменти управління справами та позначаючи кібер-поради, щоб вони знали, які з них термінові», — додав він.
Офіцери ICAC, однак, заявили, що деякі звіти, надіслані Meta, не мають кримінального характеру, а інші не містять достатніх переконливих доказів для порушення справи.
Зростання пов’язане з Законом про звітування (Report Act), який був підписаний у травні 2024 року і розширив вимоги до звітування, включаючи заплановані або неминучі зловживання, торгівлю дітьми та пов’язані з цим експлуатації, а також вимогу до компаній зберігати докази довше.
За цифрами
Meta залишається найбільшим джерелом звітів до CyberTipline NCMEC, становлячи близько двох третин із 20,5 мільйонів порад, отриманих у 2024 році, що зменшилося з 36,2 мільйонів у 2023 році. Зниження частково пояснюється змінами у практиках звітування Meta.
У своєму звіті про цілісність за серпень 2025 року Meta повідомила, що Facebook, Instagram і Threads надіслали понад 2 мільйони звітів CyberTip до NCMEC у другому кварталі 2025 року. З них понад 528 000 стосувалися неприйнятних взаємодій із дітьми, а понад 1,5 мільйона — поширення або повторне поширення матеріалів сексуальної експлуатації дітей.
Незважаючи на ці цифри, Джей Бі Бренч, адвокат політики в Public Citizen, заявив, що зростаюча залежність від AI зробила Закон про звітування менш ефективним для слідчих, які розглядають справи, стверджуючи, що хоча алгоритми давно допомагають зменшити навантаження на модераторів, людські рецензенти були найефективнішим фільтром.
«Проблема в тому, що багато з цих технологічних компаній звільнили модераторів контенту і замінили їх AI-функціями безпеки», — сказав Бренч. — «Внаслідок цього з’являється надмірна кількість хибних спрацьовувань через надмірну обережність».
Раніше Бренч зазначав, що у ланцюжку перевірки зазвичай було більше людських рецензентів, які могли ідентифікувати та видалити контент, що не заслуговує на підвищення.
«Оскільки ці компанії видалили людських модераторів або рецензентів із ланцюжка, набагато більше речей проходить далі, бо вони хочуть бути обережними», — сказав він. — «Вони фактично використовують широку сітку і захоплюють речі, які навіть не відповідають критеріям, і дуже покладаються на інструменти AI для цього».
Слідчі кажуть, що вплив несправних порад, згенерованих AI, вже відчувається всередині груп, що їх розглядають.
«Це руйнує моральний дух. Ми тонемо у порадах і хочемо займатися цією роботою», — повідомив офіцер ICAC. — «У нас немає персоналу, щоб витримати цей потік. Ми не можемо йти в ногу з потоком, що надходить».