Що може об'єднати GPT і Claude у спільній боротьбі проти Пентагону?

robot
Генерація анотацій у процесі

Цього разу вони трималися за руки, але, ймовірно, лише кілька годин.

Автор: Кері, Deep潮 TechFlow

Кілька днів тому в мережі з’явилася фотографія, яка стала дуже популярною.

Індія провела саміт з штучного інтелекту, на сцені стояли прем’єр-міністр Моді, а по обидва боки — кілька гігантів Кремнієвої долини. Під час фотосесії Моді підняв руку сусіда і підняв її над головою, інші також взялися за руки, створюючи враження єдності.

Але тільки двоє не трималися за руки.

Генеральний директор OpenAI та CEO Anthropic, тобто керівники компаній, що стоять за ChatGPT і Claude, стояли поруч і кожен підняв кулак.

Не трималися за руки, не дивилися один одному в очі — ніби двоє ворогів, яких учитель посадив за один стіл.

Ці дві компанії останні роки активно змагаються, Claude — це команда, яка пішла з OpenAI, обидві борються за користувачів, корпоративних клієнтів і фінансування. Навіть під час Супербоулу Anthropic витратили гроші на рекламу, щоб насміхатися з ChatGPT.

Тому, що не триматися за руки — цілком логічно.

Але сьогодні вони все ж трималися за руки. Через Пентагон.

Що сталося?

Anthropic, компанія, яка стоїть за Claude, минулого року підписала контракт із Міністерством оборони США на суму до 200 мільйонів доларів. Claude — перша модель штучного інтелекту, яка була розгорнута у військових секретних мережах, допомагаючи з аналізом розвідки та плануванням місій.

Але Anthropic наклала дві червоні лінії у контракті:

Claude не може використовуватися для масового спостереження за громадянами США та для автономної зброї без участі людини. (Джерело: 72 години кризової ситуації з ідентичністю Anthropic)

Однак, Пентагон не погоджувався.

Їхня вимога — чотири слова: без обмежень. Купив інструмент — користуйся ним як завгодно. Яка має рацію технологічна компанія казати військовим, що можна, а що ні?

Минулого вівторка міністр оборони Хегсетх особисто попередив CEO Anthropic: до п’ятниці, 17:01, потрібно погодитися, інакше — наслідки.

Anthropic не погодилися.

Їхній керівник оприлюднив заяву, в якій сказав: «Ми розуміємо важливість AI для оборони США, але в окремих випадках AI може шкодити, а не захищати демократичні цінності. Ми не можемо з чистою совістю погодитися на це.»

Представник Пентагону, заступник міністра оборони Еміль Майкл, згодом у соцмережах назвав його шахраєм, сказав, що він має божественну ідею і жартує з національної безпеки.

Короткий рукопотиск

А потім сталася несподіванка.

Співробітники OpenAI і Google, понад 400 осіб, підписали спільного відкритого листа з назвою «Ми не дозволимо розколу».

У листі йшлося, що Пентагон веде переговори з кожною AI-компанією, намагаючись змусити інших погодитися на ті ж умови, які відмовляється Anthropic, використовуючи страх для розколу компаній.

Генеральний директор OpenAI також надіслав внутрішнього листа всім співробітникам, у якому зазначив, що OpenAI має ті ж червоні лінії, що й Anthropic:

Не займатися масовим спостереженням, не створювати автономну зброю, високоризикові рішення — з участю людини.

Того ж дня, коли дві компанії ще не хотіли триматися за руки, раптом через кілька днів вони опинилися на одній стороні.

Але така єдність, ймовірно, триватиме лише кілька годин.

П’ятниці, 17:01 — закінчився останній термін Пентагону. Anthropic не підписали.

Американська технологічна компанія з оцінкою 380 мільярдів доларів, яка ризикує втратити контракт на 200 мільйонів доларів, відмовилася співпрацювати з Міноборони. Раніше це було б просто розірвання контракту і пошук іншого постачальника. Але реакція Вашингтона була зовсім не бізнесовою.

Приблизно через годину Трамп опублікував у Truth Social повідомлення, назвав Anthropic «лівими божевільцями», заявив, що вони намагаються перевищити конституцію і жартують із життя військових.

Він закликав усі федеральні агентства негайно припинити використання технологій Anthropic.

Наступного дня міністр оборони Хегсетх оголосив, що Anthropic внесено до списку «ризиків безпеки ланцюга поставок». Це позначення зазвичай використовують для компаній, як Huawei. Це означає, що всі підрядники, що працюють із військовими, більше не можуть використовувати продукти Anthropic.

Anthropic заявили, що подадуть у суд.

А в той самий вечір, коли раніше вони підтримували однакову позицію, OpenAI підписали угоду з Пентагоном.

Проблема ідеології

Що отримала OpenAI?

Після вигнання Claude, її місце зайняла компанія — постачальник AI для військових секретних мереж. Але OpenAI висунула три умови для Міноборони: не займатися масовим спостереженням, не створювати автономну зброю, високоризикові рішення — з участю людини.

Пентагон погодився.

Ви не помилилися. Умови, які Anthropic відмовилася прийняти кілька тижнів тому, тепер запропонували інша компанія, і за кілька днів вони домовилися.

Звісно, їхні пропозиції не ідентичні.

Anthropic додали ще один пункт: вони вважають, що сучасне законодавство не встигає за можливостями AI, наприклад, AI може легально купувати та агрегувати ваше місцеположення, історію переглядів, дані соцмереж — і це фактично слідкування, але кожен крок легальний.

Anthropic каже, що слова «не займатися моніторингом» недостатні, потрібно закрити цей лаз. OpenAI цього не наполягала, вони прийняли позицію Міноборони, що чинне законодавство достатньо.

Але якщо ви вважаєте, що це лише питання формулювань — дуже наївно. Ці переговори з самого початку були не лише про умови.

Давид Сакс, головний ідеолог у Білому домі, давно критикував Anthropic за «прогресивний AI» (залежність від політичної коректності). У високопосадовців Міноборони у ЗМІ було сказано, що Дарио — це ідеологічна проблема, і «ми знаємо, з ким маємо справу».

Ілон Маск із своєю xAI — прямий конкурент Anthropic, і цього тижня він у X неодноразово критикував цю компанію, називаючи її «ворогом західної цивілізації».

А CEO Anthropic минулого року не був присутній на інавгурації Трампа. CEO OpenAI — був.

Загартовування

Отже, підсумуємо, що сталося.

Ті самі принципи, ті самі червоні лінії — Anthropic через додатковий захист, неправильну позицію і неправильний крок була позначена як загроза національній безпеці рівня Huawei.

OpenAI зменшила кількість вимог, зберегла хороші стосунки і отримала контракт. Це — перемога принципів чи ціна за них?

Розірвання контракту з Пентагоном — не перший випадок.

У 2018 році понад 400 співробітників Google підписали петицію, кілька звільнилися, протестуючи проти участі компанії у проекті Maven — аналізі відео з дронів для швидшого виявлення цілей. Google тоді вийшов із проекту. Перемога співробітників.

Минуло 8 років, і знову ця дискусія. Але тепер правила змінилися. Одна американська компанія може працювати з військовими, але з двома заборонами. Реакція уряду — виключити її з усієї системи.

А «ризик безпеки ланцюга поставок» — це не просто втрата контракту на 200 мільйонів. Це сигнал для всіх компаній: будь-яка співпраця з військовими заборонена, якщо є ризик.

Ці компанії не зобов’язані погоджуватися з позицією Міноборони, їм потрібно лише оцінити ризики: продовжувати використовувати Claude — ризикуєш втратити контракт, або змінити модель — і все буде гаразд.

Вибір очевидний. Це — справжній сигнал цієї історії.

Anthropic не зможе витримати — неважливо. Важливо, чи зможе наступна компанія. Вона подивиться на цей приклад, на ціну принципів і зробить дуже раціональний вибір.

Погляньте назад на ту фотографію з Індії: всі тримаються за руки і підняли їх над головою, окрім двох — вони стояли з кулаками.

Можливо, це і є норма.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити