#Gate广场四月发帖挑战



Компанія з даних штучного інтелекту Mercor підтвердила серйозну витік даних, що стосується клієнтів OpenAI, Anthropic та інших

За повідомленнями, стартап Mercor, який надає тренувальні дані для AI-компаній таких як OpenAI, Anthropic і Meta, підтвердив серйозну безпекову уразливість. Інцидент стався через атакувальний ланцюг поставок на відкриту бібліотеку LiteLLM, яка широко використовується розробниками для підключення AI-сервісів і має мільйони завантажень щодня. Атака була ініційована хакерською групою TeamPCP, яка вставила шкідливий код у LiteLLM для крадіжки облікових даних. Інша група Lapsus$ згодом заявила, що отримала до 4 ТБ даних Mercor, включаючи вихідний код, записи баз даних, внутрішні повідомлення у Slack та відео з платформних чатів. За непідтвердженими даними, частина наборів даних клієнтів Mercor та конфіденційна інформація про AI-проекти могли бути витекли. Mercor заявила, що швидко вжила заходів для стримування ситуації та розпочала стороннє розслідування.

Цей інцидент є класичним прикладом ланцюгової реакції, викликаної “зараженням” у ланцюгу поставок, що не лише виявляє вразливість інфраструктури AI, а й може поставити під загрозу витік тренувальних даних таких гігантів, як OpenAI.

1. Аналіз ланцюга атаки: від “інструменту” до “даних”

Джерело зараження: хакерська група TeamPCP зламала відкриту бібліотеку LiteLLM (API-шлюз для AI), випустивши версії з бекдором (1.82.7/1.82.8) у PyPI.

Крадіжка облікових даних: після оновлення залежностей Mercor та інших компаній, зловмисний код мовчки краде їхні хмарні облікові дані та API-ключі.

Викрадення даних: інша група Lapsus$ використала ці ключі для проникнення у внутрішню мережу Mercor, викравши близько 4 ТБ ключових даних і виставивши їх на продаж.

2. “Цінність” витеклих даних

За заявами Lapsus$ та перевірками ЗМІ, викрадені дані мають руйнівний потенціал:

Конфіденційна інформація клієнтів: тренувальні набори даних для OpenAI, Anthropic, Meta, незопубліковані деталі моделей, внутрішні коди проектів.

Особисті дані: скани паспортів, відео співбесід, документи особистості співробітників платформ.

Комерційні секрети: близько 1 ТБ вихідного коду Mercor, внутрішні переписки у Slack та дані системи обробки заявок.

3. Потенційний вплив та ризики

Безпека моделей: витік тренувальних даних (особливо даних з людським зворотним зв’язком RLHF) може дозволити зловмисникам зворотно проаналізувати слабкі місця моделей і здійснити більш точні протидії.

Юридичні ризики: масштабна витік PII (особистої ідентифікаційної інформації) співробітників може спричинити величезні штрафи відповідно до GDPR та інших нормативів.

Втрата довіри: як “скринька крові” даних у ланцюгу AI-індустрії, злом Mercor змусить downstream-компанії переоцінити ризики роботи з сторонніми постачальниками даних.

4. Поточний стан та заходи захисту

Термінові дії: шкідливі версії вже зняті з публікації, Mercor розпочала стороннє розслідування і повідомила клієнтів.

Рекомендації щодо самоперевірки: якщо ви оновлювали LiteLLM наприкінці березня, негайно перевірте версію та змініть усі хмарні облікові дані й API-ключі. Звичайним користувачам слід бути обережними щодо можливих фішингових листів у майбутньому.

Коротко: це не лише інцидент безпеки компанії Mercor, а й попередження для всього AI-екосистеми про “зосередженість на функціоналі, а не безпеці”.
Переглянути оригінал
post-image
post-image
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити