OpenAI, Google та Anthropic AI моделі розгорнули ядерну зброю у 95% військових симуляцій

Decrypt
XAI-1,01%
GROK-2,56%

Коротко

  • Провідні моделі штучного інтелекту у 95% сценаріїв військових ігор застосовували ядерну зброю.
  • Жодна з них не обрала повну капітуляцію, навіть при програші.
  • Вчені попереджають, що використання ШІ може спричинити ескалацію конфліктів під тиском.

Як сцена з класичних фантастичних фільмів 1980-х “Термінатор” та “Військові ігри”, сучасні моделі штучного інтелекту, що використовуються у симульованих військових іграх, майже у кожному тестовому сценарії ескалювали до застосування ядерної зброї, згідно з новим дослідженням Лондонського королівського коледжу. У звіті, опублікованому минулого тижня, дослідники зазначили, що під час симульованих геополітичних криз три провідні великі мовні моделі — GPT-5.2 від OpenAI, Claude Sonnet 4 від Anthropic та Gemini 3 Flash від Google — у 95% випадків обирали застосування ядерної зброї. “Кожна модель грала шість військових ігор проти кожного суперника у різних кризових сценаріях, з сьомою грою проти копії себе, всього було 21 гра та понад 300 ходів,” йдеться у звіті. “Моделі виконували ролі національних лідерів, що командують супердержавами з ядерною зброєю, з профілями держав, натхненними холодною війною.” 

У дослідженні моделі ШІ були поставлені у високоризикові сценарії, що включали прикордонні конфлікти, боротьбу за обмежені ресурси та загрози виживанню режиму. Кожна система діяла за сходинками ескалації, що коливалися від дипломатичних протестів і капітуляції до повномасштабної стратегічної ядерної війни. Згідно з звітом, моделі створили приблизно 780 000 слів, пояснюючи свої рішення, і у майже кожному симульованому конфлікті використовувався щонайменше один тактичний ядерний заряд. “Щоб поставити це у перспективу: цей турнір згенерував більше слів стратегічного обґрунтування, ніж “Війна і мир” та “Іліада” разом (730 000 слів), і приблизно у три рази більше, ніж усі обговорення, що відбулися під час Карибської кризи (260 000 слів за 43 години засідань),” зазначили дослідники. Під час військових ігор жодна з моделей ШІ не обрала outright капітуляцію, незалежно від положення на полі бою. Хоча моделі тимчасово намагалися знизити рівень насильства, у 86% сценаріїв вони ескалювали ситуацію більше, ніж їхні власні обґрунтування передбачали, що відображає помилки під умовним “туманом війни.”

Хоча дослідники висловлювали сумніви, що уряди передадуть контроль над ядерними арсеналами автономним системам, вони зазначили, що стислий час прийняття рішень у майбутніх кризах може збільшити тиск на використання рекомендацій, згенерованих ШІ. Дослідження виходить на тлі все більшого прагнення військових керівників застосовувати штучний інтелект на полі бою. У грудні Міністерство оборони США запустило платформу GenAI.mil, яка вводить передові моделі ШІ у військове застосування США. На старті платформа включала Google Gemini for Government, а завдяки угодам з xAI та OpenAI доступні також Grok і ChatGPT. У вівторок CBS News повідомила, що Міноборони США погрожує внести Anthropic до чорного списку, якщо компанія не надасть безпосередній військовий доступ до моделі Claude AI. З 2024 року Anthropic надає доступ до своїх моделей через партнерство з AWS і військовим підрядником Palantir. Минулого літа Anthropic отримала контракт на 200 мільйонів доларів для “прототипування передових можливостей ШІ, що сприяють національній безпеці США.” Однак, за даними джерел, ознайомлених із ситуацією, міністр оборони Піт Гегсетх дав Anthropic до п’ятниці на виконання вимог Пентагону щодо відкриття доступу до моделі Claude. Міноборони розглядає можливість класифікувати Claude як “ризик у ланцюзі постачання.” Axios повідомила цього тижня, що Міноборони підписало угоду з xAI Ілона Маска, щоб дозволити їхній Grok працювати у засекречених військових системах, що може стати альтернативою у разі розриву зв’язків із Anthropic. OpenAI, Anthropic і Google не відповіли на запити Decrypt.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів