OpenAI, Anthropic і Google запускають спільний механізм для виявлення AI-витоку шляхом дистиляції

AI蒸餾行為

За повідомленням Bloomberg від 16 квітня, OpenAI, Anthropic PBC і Google розпочали співпрацю через галузеву неприбуткову організацію Frontier Model Forum, щоб ділитися інформацією для виявлення та зупинення протиправної практики дистиляції (distillation) проти умов надання сервісу. OpenAI підтвердив Bloomberg, що бере участь у роботі з обміну інформацією щодо протиправної дистиляції.

Рамки співпраці: механізм обміну інформацією Frontier Model Forum

Frontier Model Forum був заснований у 2023 році OpenAI, Anthropic, Google та Microsoft спільно. За повідомленням Bloomberg, наразі ці три компанії обмінюються інформацією через цю організацію з метою ідентифікувати запити проти масштабного обсягу даних (adversarial data requests), відстежувати спроби дистиляції, що порушують умови надання сервісу, і координувати припинення відповідних дій. Google публікував допис, у якому зазначив, що виявив зростання спроб вилучення (model extraction).

За повідомленням Bloomberg, такі моделі обміну інформацією відповідають усталеним практикам у сфері кібербезпеки, яка протягом тривалого часу посилювала захист, обмінюючись між компаніями даними про атаки та стратегіями опонентів.

Парламентський меморандум OpenAI та пов’язані звинувачення

Згідно з меморандумом, поданим OpenAI до Спеціального комітету Палати представників США з питань Китаю (House Select Committee on China) (лютий 2026 року), OpenAI звинувачує китайські AI-компанії DeepSeek у спробі «зайти в ролі пасажира (ride along)» на розроблених OpenAI та іншими американськими передовими лабораторіями технологіях, а також стверджує, що вона й надалі використовує технології дистиляції даних, щоб витягати результати з американських моделей для розробки нової версії чат-бота, і що застосовувані методи стають дедалі більш складними.

Anthropic у лютому 2026 року опублікував заяву, в якій ідентифікував три китайські AI-лабораторії — DeepSeek, Moonshot і MiniMax — і висунув звинувачення, що вони незаконно витягують функціональність моделей Claude через протиправну дистиляцію. Раніше Anthropic у 2025 році заборонив китайським компаніям використовувати Claude. Bloomberg також повідомляв, що після того, як DeepSeek у січні 2025 року оприлюднив модель міркувань R1, Microsoft і OpenAI розпочали розслідування щодо того, чи DeepSeek незаконно вилучав дані моделей США.

Позиція адміністрації Трампа та обмеження комплаєнсу щодо антимонопольного законодавства

Згідно з оприлюдненими документами з політики, посадовці адміністрації Трампа заявили, що готові сприяти обміну інформацією між AI-компаніями, щоб протидіяти загрозам протиправної дистиляції. У《Плані дій щодо штучного інтелекту》, оприлюдненому президентом Трампом, прямо закликається створити центр обміну інформацією та аналітики; частина цілей — саме для протидії зазначеним діям.

За повідомленням Bloomberg, нинішній обсяг обміну інформацією про технічну дистиляцію між трьома компаніями залишається обмеженим через те, що вони не впевнені, які саме відомості можуть бути законно обмінені за чинними антимонопольними рекомендаціями; три компанії заявили, що мають намір розширити співпрацю після того, як у США уряд чітко визначить відповідні рамки керівництва.

Поширені запитання

OpenAI, Anthropic і Google — через яку організацію вони співпрацюють?

За повідомленням Bloomberg, три компанії здійснюють обмін інформацією через Frontier Model Forum — організацію, яку OpenAI, Anthropic, Google та Microsoft спільно заснували у 2023 році як галузеву неприбуткову організацію.

Що OpenAI подала до Конгресу США щодо проблеми AI-дистиляції?

Згідно з оприлюдненими даними OpenAI, OpenAI подала до Спеціального комітету Палати представників США з питань Китаю меморандум (лютий 2026 року), у якому звинуватила DeepSeek у тому, що вона на постійній основі витягує результати з американських моделей, використовуючи технології дистиляції даних, і розробляє на цій основі нову версію чат-бота.

Які оприлюднені дії зробила Anthropic у зв’язку з проблемою дистиляції китайських AI-лабораторій?

Згідно з оприлюдненою заявою Anthropic, Anthropic у 2025 році заборонила китайським компаніям використовувати модель Claude, а в лютому 2026 року виявила три китайські AI-лабораторії — DeepSeek, Moonshot і MiniMax — та звинуватила їх у незаконному витягу од функціональності моделі Claude через протиправну дистиляцію.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

Дослідження Microsoft: лише 13% працівників, які отримують корпоративні заохочення для інновацій на основі ШІ, зазнали невдачі у своїй роботі

Згідно з щорічним звітом Microsoft «Індекс робочих тенденцій», опублікованим 5 травня, звіт проаналізував мільйони анонімних сигналів продуктивності Microsoft 365 та опитав 20 000 співробітників у кількох ринках, зокрема в США, Великій Британії, Індії та Японії. Дані звіту показали, що лише 13% співробітників заявили: у разі спроб покращити роботу за допомогою ШІ та відсутності очікуваного ефекту роботодавець надає заохочення.

MarketWhisper37хв. тому

Meta розробляє AI-асистента Hatch для конкуренції з OpenClaw, до кінця червня завершить внутрішнє тестування

За повідомленням Financial Times від 5 травня, Meta розробляє AI-асистента (Hatch) для пересічних споживачів, натхненого OpenClaw від OpenAI. Компанія має намір до кінця червня завершити внутрішнє тестування; водночас Meta планує до четвертого кварталу цього року інтегрувати автономний агентний інструмент для покупок у свої сервіси Instagram.

MarketWhisper46хв. тому

Судове слухання OpenAI: Брокман свідчить, що Маск раніше казав, що безпеку не забезпечуватиме, а акції буде ризиковано підтримувати і діяти грубо

За повідомленням New York Post від 6 травня, генеральний директор OpenAI Грег Брокман 5 травня дав свідчення в Окружному федеральному суді в Окленді, штат Каліфорнія, розкривши, що під час виходу Маска з ради директорів OpenAI у 2018 році він звернувся до всіх членів команди з промовою, заявивши, що коли він просуває AI у Tesla, «не витрачатиме час на безпеку». Також стверджується, що у 2017 році він разом із співзасновником OpenAI обговорював угоду щодо часток в об’єднаннях, що мало ескалацію.

MarketWhisper1год тому

Cloudflare: Нелюдський трафік тепер є більшістю, x402 кількість адрес фундації в Web Economics

Головний директор з стратегії Cloudflare заявив, що понад половину інтернет-трафіку нині формують не люди, підкресливши зміну моделей використання вебу, зумовлену AI-агентами. Компанія називає x402 Foundation ключовою ініціативою, яка створює інфраструктуру для підтримки стійкої цифрової економіки контенту.

CryptoFrontier2год тому

Індійські кіберзахисні компанії використовують ШІ, щоб скоротити тестування вразливостей до годин

Індійські кібербезпекові компанії, зокрема Indusface та Astra Security, впроваджують AI-агенти, створені на базі великих мовних моделей, щоб прискорити тестування програмних вразливостей з днів або тижнів до годин, повідомляє The Economic Times. Зміни відображають зростання швидкості дій атакувальників і з’являючуся здатність AI-інструментів

CryptoFrontier2год тому
Прокоментувати
0/400
Немає коментарів