За повідомленням «The Wall Street Journal», Центральне командування США (CENTCOM) під час авіаудару по Ірану використовувало систему Claude AI від Anthropic для аналізу розвідданих, ідентифікації цілей та моделювання бойових сценаріїв — хоча всього кілька годин тому президент підписав наказ про заборону Anthropic. Цей випадок яскраво демонструє, що штучний інтелект вже глибоко інтегрований у оборонну інфраструктуру, і навіть президентські заборони не здатні миттєво його відрізати. Anthropic через відмову зняти обмеження щодо «автоматичної зброї» та «масового спостереження» був виключений з контрактів Pentagon, і OpenAI швидко взяв на себе цю роль.
(Передісторія: Трамп планує повністю заборонити Anthropic! Відмовляється змінювати Claude через «заборону вбивств», а OpenAI несподівано підтримує)
(Додатковий фон: Pentagon погрожує Anthropic! Вимагає відкриття Claude для військових цілей «інакше — розірвання контракту»)
Зміст статті
Переключити
Коли минулого п’ятниці уряд Трампа наказав повністю припинити використання технологій Anthropic, а міністр оборони оголосив їх «ризиком у ланцюгу поставок», американські війська все одно продовжували використовувати Claude для операцій по Ірану. Ця суперечливість підкреслює тривожний факт: проникнення штучного інтелекту у військову систему вже перевищує можливості швидкої реакції адміністративних наказів.
За повідомленням «The Wall Street Journal», посилаючись на джерела, Центральне командування США під час операції «Епічний гнів» (Operation Epic Fury) по Ірану продовжувало використовувати Claude для виконання ключових завдань — аналізу розвідданих, допомоги у визначенні цілей та моделювання бойових сценаріїв.
Anthropic минулого літа уклало з Pentagon дворічний прототипний контракт на суму до 200 мільйонів доларів, через партнерство з Palantir і Amazon Web Services. Claude став першим комерційним AI, дозволеним працювати у секретних мережах Pentagon, застосовуючися від тестування озброєнь до оперативного зв’язку на полі бою. За повідомленнями, ця система раніше допомагала у операціях з затримання президента Венесуели Мадуро у січні цього року.
Головна суперечка полягає у тому, що Pentagon вимагає від Anthropic зняти обмеження щодо використання Claude — щоб він міг застосовуватися «у всіх легальних цілях». Але генеральний директор Anthropic Dario Amodei відмовився йти на компроміс, наполягаючи на двох етичних засадах:
Amodei заявив, що компанія виступає проти використання AI для «масового внутрішнього контролю» та «повністю автономних систем озброєння», наголошуючи, що військові рішення мають залишатися у людських руках, а не довіряти алгоритмам. У заяві він написав: «Ми не можемо з чистою совістю погодитися на їхні вимоги».
Міністр оборони Піт Гегсет (Pete Hegseth) одразу включив Anthropic до списку «ризиків у ланцюгу поставок», а Трамп дав прямий наказ усім федеральним агентствам «негайно припинити використання» технологій Anthropic. Проте ключові відомства, зокрема Міноборони, мають 6-місячний перехідний період. Anthropic оголосила, що оскаржить цю постанову у суді, назвавши її «безпідставною», і попередила, що це створить небезпечний прецедент для «будь-яких американських компаній, що ведуть переговори з урядом».
За кілька годин після оголошення заборони Anthropic, OpenAI повідомила про досягнення угоди з Міноборони щодо розгортання своїх AI-технологій у секретних військових мережах.
Цікаво, що під час конфлікту CEO OpenAI Сам Альтман у інтерв’ю CNBC відкрито підтримав Anthropic, назвавши її «надійним партнером у безпеці» — хоча в підсумку саме OpenAI взяла на себе військовий контракт, відмовившись від Anthropic. Ця тонка гра між гігантами AI відображає складну боротьбу у Кремнієвій долині між комерційними інтересами та етичними принципами.
Найбільш глибокий урок цієї історії — не політична боротьба між Трампом і Anthropic, а той, що коли AI вже глибоко інтегрований у всі військові процеси — від аналізу розвідки до цілевказівки — будь-яке «відключення» за наказом не дасть швидкого результату.
Для криптосообществ і Web3 ця історія є попередженням: коли технології проникають у державний і оборонний сектор, ідеал «децентралізації» стикається з реальністю «національної волі». Досвід Anthropic показує, що дотримання етичних стандартів може коштувати втрати найбільших клієнтів.