Після провалу переговорів із Пентагоном Anthropic був внесений до списку компаній із ризиком для ланцюга постачань урядом США, а OpenAI швидко оголосила про укладення контракту з Міністерством оборони, розгорнувши свою модель штучного інтелекту у секретному середовищі. Ця угода не лише викликала хвилю в галузі, але й змусила генерального директора OpenAI Сема Альтмана рідко зізнатися: «Ця угода дійсно була поспішною, враження залишилися не дуже хороші.»
(Anthropic і Пентагон зіткнулися у відкритому конфлікті! Генеральний директор Amodei відмовився від «масового внутрішнього контролю» та «повністю автономної зброї»)
Переговори Anthropic провалилися, уряд Трампа почав блокувати
Після того, як переговори з Пентагоном минулого п’ятниці зірвалися, президент Дональд Трамп наказав федеральним агентствам через шість місяців припинити використання технологій Anthropic. Міністр оборони Піт Гесет публічно назвав Anthropic «ризиком для ланцюга постачань».
Це рішення стало ударом для індустрії штучного інтелекту. Anthropic завжди наголошував, що їхні технології не повинні застосовуватися для «повністю автономної зброї» або «масового внутрішнього контролю», і чітко окреслював цю червону лінію. Однак, схоже, ця позиція не знайшла розуміння у Пентагону.
Поки світ ще осмислював цю новину, OpenAI швидко оголосила про досягнення угоди з Міноборони щодо розгортання своєї моделі у секретному середовищі. Цей збіг обставин викликав підвищену увагу галузі.
OpenAI: наша червона лінія залишилася незмінною
У відповідь на запитання щодо можливого послаблення позиції під тиском національної безпеки, компанія опублікувала офіційний блог, у якому назвала три чітко заборонені сфери використання:
Масовий внутрішній контроль
Автономні системи озброєння
Високо ризиковані автоматизовані рішення (наприклад, «система соціального кредиту»)
OpenAI підкреслює, що, на відміну від деяких інших AI-компаній, які «зменшують або видаляють заходи безпеки, покладаючись лише на політики використання», їхня співпраця з Міноборони базується на «багаторівневій, комплексній системі безпеки».
Згідно з офіційною інформацією, OpenAI зберігає повний контроль над безпековими технологіями, розгортає моделі через хмарний API та забезпечує участь у їхній експлуатації лише перевірених на безпеку фахівців, а також має сильні контрактні умови та дотримується чинного законодавства США.
У заяві також зазначено: «Ми не знаємо, чому Anthropic не зміг укласти цю угоду, але сподіваємося, що вони та інші лабораторії переглянуть свою позицію.»
Підозри щодо контролю: фокус на виконавчому наказі 12333
Хоча OpenAI наголошує на чіткості своїх червоних ліній, технологічна спільнота не поділяє цю думку. Засновник Techdirt Майк Маснік зазначив, що у контракті йдеться про те, що збір даних буде відповідати виконавчому наказу 12333 та іншим законам, що фактично може дозволяти внутрішній контроль.
Маснік підкреслює, що виконавчий наказ 12333 довгий час критикується як правова основа для NSA для перехоплення комунікацій, що стосуються громадян США за кордоном. Це означає, що контракт OpenAI «фактично дозволяє внутрішній контроль».
На цю критику відповіла керівник відділу співпраці з нацбезпекою OpenAI Катрін Малліган у LinkedIn, яка заявила, що фокус на одному пункті контракту — помилка. Вона підкреслила, що «архітектура розгортання важливіша за мовлення контракту». Завдяки використанню лише хмарного API OpenAI може гарантувати, що модель не буде безпосередньо інтегрована у зброю, сенсори або інше бойове обладнання.
Сем Альтман визнає поспішність: для «зниження напруги» у галузі?
У соцмережі X Сем Альтман особисто відповів на запитання. Він зізнався, що ця угода «дійсно була поспішною», і визнав, що компанія зазнала значного спротиву.
Це спротив був настільки сильним, що навіть відобразився у конкуренції на ринку: у суботу модель Anthropic Claude вперше піднялася вище за ChatGPT за кількістю завантажень у App Store.
(Anthropic отримала розірвання контракту з Пентагоном, кількість завантажень Claude зросла і стала лідером)
Чому ж тоді все ж підписали угоду?
Альтман зазначив: «Ми справді хотіли знизити напругу, і вважаємо цю угоду цілком обґрунтованою». Він додав, що якщо ця співпраця допоможе зменшити напругу між Міноборони та індустрією AI, OpenAI вважатиметься компанією, яка під тиском сприяє стабілізації; якщо ні — критика щодо поспішності та необережності зросте.
Битва за межі AI і оборони: новий етап галузі
Ця ситуація підкреслює глибшу проблему: коли технології штучного інтелекту стають дедалі більш зрілими, як технологічні компанії можуть балансувати між національною безпекою та етичними межами?
Anthropic дотримався принципів і в результаті втратив урядовий контракт; OpenAI швидко втрутилася і намагається через технічні архітектури та правові механізми забезпечити безпечні межі. Обидві стратегії відображають різні підходи до ризиків.
У майбутньому співпраця між AI-компаніями та урядом стане ще частішою. Важливо, щоб ці партнерства забезпечували безпеку країни, зберігаючи при цьому свободу громадян і етичні стандарти технологій.
Ця стаття: OpenAI отримала контракт із Пентагоном! Сем Альтман визнає «поспішне рішення», наголошує на забороні масштабного контролю та автономної зброї. Першоджерело — Chain News ABMedia.