У той час як етичні питання штучного інтелекту та військові потреби стикаються з гострим протистоянням, генеральний директор Anthropic Dario Amodei нещодавно відновив переговори з Пентагоном США, намагаючись зберегти контракт на співпрацю у сфері штучного інтелекту вартістю кілька сотень мільйонів доларів, при цьому дотримуючись «червоних ліній» компанії, щоб уникнути повного виключення з оборонного ланцюга постачань.
(Попередній контекст: CEO Anthropic різко критикує: контракти OpenAI з Пентагоном — це брехня, Altman маскує себе під посла миру)
(Додатковий фон: Трамп планує повністю заборонити Anthropic! Відмовляється змінювати Claude «обмеження на вбивство», а OpenAI несподівано підтримує цю позицію)
Зміст статті
Перемикач
Американська компанія штучного інтелекту Anthropic, її генеральний директор Dario Amodei, нещодавно відновив переговори з Міністерством оборони США (Пентагоном) щодо контракту на використання їхньої моделі Claude у військових цілях, докладаючи останніх зусиль для узгодження умов. Це сталося після того, як минулого тижня переговори між сторонами зірвалися, а Пентагон включив Anthropic до списку «ризиків у ланцюгу постачань», щоб уникнути виключення з військової співпраці та зберегти основні етичні принципи компанії.
З минулого року Anthropic уклала з Пентагоном пілотний контракт вартістю до 200 мільйонів доларів, що дозволило моделі Claude стати першою передовою AI-системою, яка отримала дозвіл працювати у закритих мережах. Однак уряд Трампа пізніше вимагав змінити умови, наполягаючи, що AI має використовуватися «для будь-яких законних цілей» без обмежень.
Anthropic дотримується двох «червоних ліній»: заборони використання Claude для масштабного внутрішнього спостереження за громадянами США та заборони застосування у повністю автономних озброєннях (fully autonomous weapons — системах, що можуть самостійно обирати та атакувати цілі без участі людини). Компанія вважає, що такі застосування можуть підривати демократичні цінності, а поточні технології AI ще недостатньо надійні. Однак міністр оборони Піт Гегсетх висловив ультиматум, вимагаючи компромісу до визначеного терміну, інакше погрожуючи розірвати контракт і застосувати відповідні закони, що призвело до зриву переговорів минулого п’ятниці.
За інформацією джерел, Amodei наразі веде прямі переговори з заступником міністра оборони з досліджень та інженерії Emil Michael, прагнучи досягти компромісу, який дозволить військовим продовжувати використовувати Claude і водночас значно знизити ризик офіційного внесення Anthropic до чорного списку.
У разі успіху новий контракт може зменшити напруженість і вплинути на конкурентне середовище у галузі AI — наприклад, OpenAI вже уклала угоду з Пентагоном, але також переглядає умови, додаючи подібні обмеження. Anthropic підкреслює свою готовність до співпраці, але не відмовляється від своїх основних принципів; у разі неможливості досягти згоди компанія допоможе плавно перейти до інших постачальників, щоб не порушити військові операції.
Цей конфлікт підкреслює напруженість між AI-компаніями та військовими структурами щодо етики, безпеки та національної безпеки. Anthropic позиціонує себе як бренд відповідального AI, відмовляючись беззастережно йти на поступки, що відображає глибоку тривогу частини Кремнієвої долини щодо військового застосування AI; у той час як Пентагон наголошує на гнучкості у бойових умовах та технологічних перевагах.
Якщо переговори пройдуть успішно, це може закласти новий приклад для військового застосування AI; інакше це може посилити розкол у галузі. Очікується, що незабаром з’являться офіційні заяви або нові новини щодо розвитку ситуації.