Через кілька годин після того, як президент Дональд Трамп наказав федеральним агентствам припинити використання AI-інструментів Anthropic, військові США здійснили масштабний авіаудар по Ірану, який, за повідомленнями, базувався на платформі Claude від компанії. Повідомляється, що Центральне командування США використовувало Claude для розвідки, ідентифікації цілей та моделювання сценаріїв бою під час ударів по Ірану, підтвердили джерела, знайомі з цим, газеті Wall Street Journal у суботу. Це сталося попри наказ Трампа у п’ятницю, що вимагає від агентств почати шестимісячний період виведення з експлуатації продуктів Anthropic після того, як переговори між компанією та Пентагоном щодо використання комерційно розроблених систем AI закінчилися провалом. Decrypt звернувся до Міністерства оборони та Anthropic за коментарем.
«Коли AI-інструменти вже інтегровані у живі системи розвідки та симуляції, рішення на найвищому рівні не миттєво перетворюються у зміни на місцях», — сказав Decrypt Мідхун Крішна М, співзасновник і генеральний директор TknOps.io, що відстежує витрати на великі мовні моделі. «Існує затримка — технічна, процедурна та людська.» «Коли модель вже інтегрована у закриті системи розвідки та симуляції, ви стикаєтеся з витратами на інтеграцію, повторним навчанням, сертифікацією безпеки та паралельним тестуванням, тому шестимісячний період виведення може здаватися вирішальним, але реальні фінансові та операційні навантаження глибше», — додав Крішна. «Оборонні агентства тепер зосередяться на переносимості моделей та резервних копіях», — сказав він. «Жоден серйозний військовий оператор не хоче виявити під час кризи, що його AI-шар є політично вразливим.»
Генеральний директор Anthropic Даріо Амодей у четвер заявив, що компанія не знімуть заходи безпеки, які запобігають використанню Claude для масового внутрішнього спостереження або повністю автономної зброї. «Ми не можемо за совістю погодитися з їхнім проханням», — написав Амодей після того, як Міністерство оборони вимагало від підрядників дозволити використання систем для «будь-яких законних цілей». «Ліві екстремісти з Anthropic зробили катастрофічну помилку, намагаючись силою впливу на Міністерство війни», — пізніше написав Трамп у Truth Social, наказуючи агентствам «негайно припинити» використання продуктів Anthropic. Міністр оборони Піт Хегсетн назвав Anthropic «ризиком для національної безпеки у ланцюгу постачання», що раніше застосовувався до іноземних противників, заборонивши всім підрядникам і партнерам Пентагону комерційну діяльність з цією компанією. Anthropic назвав цю позначку «беспрецедентною» і пообіцяв оскаржити її у суді, заявивши, що вона «ніколи раніше не застосовувалася публічно до американської компанії». Компанія додала, що, наскільки їй відомо, обмеження досі не вплинули на жодну урядову місію. «Діалог не стосується питання, чи буде AI використовуватися у обороні, це вже відбувається», — додав Крішна. «Питання у тому, чи зможуть передові лабораторії підтримувати диференційовані межі безпеки, коли їхні системи стануть операційними активами за контрактами на «будь-яке законне використання»». OpenAI швидко заповнила цю прогалину, оголосивши у п’ятницю вечором про угоду з Пентагоном щодо закритих військових мереж, стверджуючи, що вона включає ті самі межі безпеки, яких прагнула Anthropic.
Вчора ми досягли угоди з Міністерством війни щодо розгортання передових систем AI у закритих середовищах, яку ми просили зробити доступною для всіх компаній AI.
Ми вважаємо, що наше розгортання має більше меж безпеки, ніж будь-яка попередня угода щодо закритого AI…
— OpenAI (@OpenAI) 28 лютого 2026
На запитання, чи встановлення фактичного чорного списку Anthropic Пентагоном створює тривожний прецедент для майбутніх конфліктів з компаніями AI, генеральний директор OpenAI Сэм Альтман відповів у X: «Так; я вважаю, що це дуже страшний прецедент, і хотів би, щоб його вирішили інакше. Я також не думаю, що Anthropic справила це добре, але як більш впливова сторона, я більше відповідальний уряду. Сподіваюся на набагато кращий вихід», — додав він. Тим часом майже 500 співробітників OpenAI і Google підписали відкритого листа з попередженням, що Пентагон намагається посварити компанії AI між собою.