The Wall Street Journal повідомляє: Трамп усунув Хаменеї Ірану за допомогою Claude AI, OpenAI повністю контролює системи Пентагону

動區BlockTempo

За повідомленням «The Wall Street Journal», Центральне командування США (CENTCOM) під час авіаудару по Ірану використовувало систему Claude AI від Anthropic для аналізу розвідданих, ідентифікації цілей та моделювання бойових сценаріїв — хоча всього кілька годин тому президент підписав наказ про заборону Anthropic. Цей випадок яскраво демонструє, що штучний інтелект вже глибоко інтегрований у оборонну інфраструктуру, і навіть президентські заборони не здатні миттєво його відрізати. Anthropic через відмову зняти обмеження щодо «автоматичної зброї» та «масового спостереження» був виключений з контрактів Pentagon, і OpenAI швидко взяв на себе цю роль.
(Передісторія: Трамп планує повністю заборонити Anthropic! Відмовляється змінювати Claude через «заборону вбивств», а OpenAI несподівано підтримує)
(Додатковий фон: Pentagon погрожує Anthropic! Вимагає відкриття Claude для військових цілей «інакше — розірвання контракту»)

Зміст статті

Переключити

  • Щойно підписано заборону — Claude все ще «працює» на полі бою
  • Anthropic тримає дві червоні лінії, зазнає «відмови слухатися»
  • OpenAI швидко взяв кермо — гонка озброєнь штучним інтелектом отримала нового гравця
  • Штучний інтелект вже повернути назад неможливо: технологічна інерція перемагає заборони

Коли минулого п’ятниці уряд Трампа наказав повністю припинити використання технологій Anthropic, а міністр оборони оголосив їх «ризиком у ланцюгу поставок», американські війська все одно продовжували використовувати Claude для операцій по Ірану. Ця суперечливість підкреслює тривожний факт: проникнення штучного інтелекту у військову систему вже перевищує можливості швидкої реакції адміністративних наказів.

Щойно підписано заборону — Claude все ще «працює» на полі бою

За повідомленням «The Wall Street Journal», посилаючись на джерела, Центральне командування США під час операції «Епічний гнів» (Operation Epic Fury) по Ірану продовжувало використовувати Claude для виконання ключових завдань — аналізу розвідданих, допомоги у визначенні цілей та моделювання бойових сценаріїв.

Anthropic минулого літа уклало з Pentagon дворічний прототипний контракт на суму до 200 мільйонів доларів, через партнерство з Palantir і Amazon Web Services. Claude став першим комерційним AI, дозволеним працювати у секретних мережах Pentagon, застосовуючися від тестування озброєнь до оперативного зв’язку на полі бою. За повідомленнями, ця система раніше допомагала у операціях з затримання президента Венесуели Мадуро у січні цього року.

Anthropic тримає дві червоні лінії, зазнає «відмови слухатися»

Головна суперечка полягає у тому, що Pentagon вимагає від Anthropic зняти обмеження щодо використання Claude — щоб він міг застосовуватися «у всіх легальних цілях». Але генеральний директор Anthropic Dario Amodei відмовився йти на компроміс, наполягаючи на двох етичних засадах:

  • Claude не може використовуватися для масового спостереження за громадянами США
  • Не може керувати повністю автономною зброєю

Amodei заявив, що компанія виступає проти використання AI для «масового внутрішнього контролю» та «повністю автономних систем озброєння», наголошуючи, що військові рішення мають залишатися у людських руках, а не довіряти алгоритмам. У заяві він написав: «Ми не можемо з чистою совістю погодитися на їхні вимоги».

Міністр оборони Піт Гегсет (Pete Hegseth) одразу включив Anthropic до списку «ризиків у ланцюгу поставок», а Трамп дав прямий наказ усім федеральним агентствам «негайно припинити використання» технологій Anthropic. Проте ключові відомства, зокрема Міноборони, мають 6-місячний перехідний період. Anthropic оголосила, що оскаржить цю постанову у суді, назвавши її «безпідставною», і попередила, що це створить небезпечний прецедент для «будь-яких американських компаній, що ведуть переговори з урядом».

OpenAI швидко взяв кермо — гонка озброєнь штучним інтелектом отримала нового гравця

За кілька годин після оголошення заборони Anthropic, OpenAI повідомила про досягнення угоди з Міноборони щодо розгортання своїх AI-технологій у секретних військових мережах.

Цікаво, що під час конфлікту CEO OpenAI Сам Альтман у інтерв’ю CNBC відкрито підтримав Anthropic, назвавши її «надійним партнером у безпеці» — хоча в підсумку саме OpenAI взяла на себе військовий контракт, відмовившись від Anthropic. Ця тонка гра між гігантами AI відображає складну боротьбу у Кремнієвій долині між комерційними інтересами та етичними принципами.

Штучний інтелект вже повернути назад неможливо: заборони не зупинять технологічну інерцію

Найбільш глибокий урок цієї історії — не політична боротьба між Трампом і Anthropic, а той, що коли AI вже глибоко інтегрований у всі військові процеси — від аналізу розвідки до цілевказівки — будь-яке «відключення» за наказом не дасть швидкого результату.

Для криптосообществ і Web3 ця історія є попередженням: коли технології проникають у державний і оборонний сектор, ідеал «децентралізації» стикається з реальністю «національної волі». Досвід Anthropic показує, що дотримання етичних стандартів може коштувати втрати найбільших клієнтів.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів