ШІ Anthropic використовується в Ірані після того, як Трамп почав розривати зв'язки: WSJ

Decrypt

Коротко

  • Повідомляється, що Центральне командування США використовувало Claude від Anthropic для розвідки, ідентифікації цілей та симуляції боїв під час ударів по Ірану.
  • Експерти попереджають, що шестимісячний термін виведення з експлуатації недооцінює реальні витрати на заміну AI-моделі, яка інтегрована у закриті оборонні системи.
  • OpenAI уклала угоду з Пентагоном після конфлікту з Anthropic.

Через кілька годин після того, як президент Дональд Трамп наказав федеральним агентствам припинити використання AI-інструментів Anthropic, військові США здійснили масштабний авіаудар по Ірану, який, за повідомленнями, базувався на платформі Claude від компанії. Повідомляється, що Центральне командування США використовувало Claude для розвідки, ідентифікації цілей та моделювання сценаріїв бою під час ударів по Ірану, підтвердили джерела, знайомі з цим, газеті Wall Street Journal у суботу. Це сталося попри наказ Трампа у п’ятницю, що вимагає від агентств почати шестимісячний період виведення з експлуатації продуктів Anthropic після того, як переговори між компанією та Пентагоном щодо використання комерційно розроблених систем AI закінчилися провалом. Decrypt звернувся до Міністерства оборони та Anthropic за коментарем.

 «Коли AI-інструменти вже інтегровані у живі системи розвідки та симуляції, рішення на найвищому рівні не миттєво перетворюються у зміни на місцях», — сказав Decrypt Мідхун Крішна М, співзасновник і генеральний директор TknOps.io, що відстежує витрати на великі мовні моделі. «Існує затримка — технічна, процедурна та людська.» «Коли модель вже інтегрована у закриті системи розвідки та симуляції, ви стикаєтеся з витратами на інтеграцію, повторним навчанням, сертифікацією безпеки та паралельним тестуванням, тому шестимісячний період виведення може здаватися вирішальним, але реальні фінансові та операційні навантаження глибше», — додав Крішна. «Оборонні агентства тепер зосередяться на переносимості моделей та резервних копіях», — сказав він. «Жоден серйозний військовий оператор не хоче виявити під час кризи, що його AI-шар є політично вразливим.»

Генеральний директор Anthropic Даріо Амодей у четвер заявив, що компанія не знімуть заходи безпеки, які запобігають використанню Claude для масового внутрішнього спостереження або повністю автономної зброї. «Ми не можемо за совістю погодитися з їхнім проханням», — написав Амодей після того, як Міністерство оборони вимагало від підрядників дозволити використання систем для «будь-яких законних цілей». «Ліві екстремісти з Anthropic зробили катастрофічну помилку, намагаючись силою впливу на Міністерство війни», — пізніше написав Трамп у Truth Social, наказуючи агентствам «негайно припинити» використання продуктів Anthropic. Міністр оборони Піт Хегсетн назвав Anthropic «ризиком для національної безпеки у ланцюгу постачання», що раніше застосовувався до іноземних противників, заборонивши всім підрядникам і партнерам Пентагону комерційну діяльність з цією компанією. Anthropic назвав цю позначку «беспрецедентною» і пообіцяв оскаржити її у суді, заявивши, що вона «ніколи раніше не застосовувалася публічно до американської компанії». Компанія додала, що, наскільки їй відомо, обмеження досі не вплинули на жодну урядову місію. «Діалог не стосується питання, чи буде AI використовуватися у обороні, це вже відбувається», — додав Крішна. «Питання у тому, чи зможуть передові лабораторії підтримувати диференційовані межі безпеки, коли їхні системи стануть операційними активами за контрактами на «будь-яке законне використання»». OpenAI швидко заповнила цю прогалину, оголосивши у п’ятницю вечором про угоду з Пентагоном щодо закритих військових мереж, стверджуючи, що вона включає ті самі межі безпеки, яких прагнула Anthropic.

Вчора ми досягли угоди з Міністерством війни щодо розгортання передових систем AI у закритих середовищах, яку ми просили зробити доступною для всіх компаній AI.

Ми вважаємо, що наше розгортання має більше меж безпеки, ніж будь-яка попередня угода щодо закритого AI…

— OpenAI (@OpenAI) 28 лютого 2026

На запитання, чи встановлення фактичного чорного списку Anthropic Пентагоном створює тривожний прецедент для майбутніх конфліктів з компаніями AI, генеральний директор OpenAI Сэм Альтман відповів у X: «Так; я вважаю, що це дуже страшний прецедент, і хотів би, щоб його вирішили інакше. Я також не думаю, що Anthropic справила це добре, але як більш впливова сторона, я більше відповідальний уряду. Сподіваюся на набагато кращий вихід», — додав він. Тим часом майже 500 співробітників OpenAI і Google підписали відкритого листа з попередженням, що Пентагон намагається посварити компанії AI між собою.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів