OpenAI захопила контракт на AI для Білого дому! Сем Альтман зізнався у «спішному рішенні», підкреслюючи, що це не стосується масштабного спостереження та автоматичної зброї

ChainNewsAbmedia

Після провалу переговорів із Пентагоном Anthropic був внесений до списку компаній із ризиком для ланцюга постачань урядом США, а OpenAI швидко оголосила про укладення контракту з Міністерством оборони, розгорнувши свою модель штучного інтелекту у секретному середовищі. Ця угода не лише викликала хвилю в галузі, але й змусила генерального директора OpenAI Сема Альтмана рідко зізнатися: «Ця угода дійсно була поспішною, враження залишилися не дуже хороші.»

(Anthropic і Пентагон зіткнулися у відкритому конфлікті! Генеральний директор Amodei відмовився від «масового внутрішнього контролю» та «повністю автономної зброї»)

Переговори Anthropic провалилися, уряд Трампа почав блокувати

Після того, як переговори з Пентагоном минулого п’ятниці зірвалися, президент Дональд Трамп наказав федеральним агентствам через шість місяців припинити використання технологій Anthropic. Міністр оборони Піт Гесет публічно назвав Anthropic «ризиком для ланцюга постачань».

Це рішення стало ударом для індустрії штучного інтелекту. Anthropic завжди наголошував, що їхні технології не повинні застосовуватися для «повністю автономної зброї» або «масового внутрішнього контролю», і чітко окреслював цю червону лінію. Однак, схоже, ця позиція не знайшла розуміння у Пентагону.

Поки світ ще осмислював цю новину, OpenAI швидко оголосила про досягнення угоди з Міноборони щодо розгортання своєї моделі у секретному середовищі. Цей збіг обставин викликав підвищену увагу галузі.

OpenAI: наша червона лінія залишилася незмінною

У відповідь на запитання щодо можливого послаблення позиції під тиском національної безпеки, компанія опублікувала офіційний блог, у якому назвала три чітко заборонені сфери використання:

Масовий внутрішній контроль

Автономні системи озброєння

Високо ризиковані автоматизовані рішення (наприклад, «система соціального кредиту»)

OpenAI підкреслює, що, на відміну від деяких інших AI-компаній, які «зменшують або видаляють заходи безпеки, покладаючись лише на політики використання», їхня співпраця з Міноборони базується на «багаторівневій, комплексній системі безпеки».

Згідно з офіційною інформацією, OpenAI зберігає повний контроль над безпековими технологіями, розгортає моделі через хмарний API та забезпечує участь у їхній експлуатації лише перевірених на безпеку фахівців, а також має сильні контрактні умови та дотримується чинного законодавства США.

У заяві також зазначено: «Ми не знаємо, чому Anthropic не зміг укласти цю угоду, але сподіваємося, що вони та інші лабораторії переглянуть свою позицію.»

Підозри щодо контролю: фокус на виконавчому наказі 12333

Хоча OpenAI наголошує на чіткості своїх червоних ліній, технологічна спільнота не поділяє цю думку. Засновник Techdirt Майк Маснік зазначив, що у контракті йдеться про те, що збір даних буде відповідати виконавчому наказу 12333 та іншим законам, що фактично може дозволяти внутрішній контроль.

Маснік підкреслює, що виконавчий наказ 12333 довгий час критикується як правова основа для NSA для перехоплення комунікацій, що стосуються громадян США за кордоном. Це означає, що контракт OpenAI «фактично дозволяє внутрішній контроль».

На цю критику відповіла керівник відділу співпраці з нацбезпекою OpenAI Катрін Малліган у LinkedIn, яка заявила, що фокус на одному пункті контракту — помилка. Вона підкреслила, що «архітектура розгортання важливіша за мовлення контракту». Завдяки використанню лише хмарного API OpenAI може гарантувати, що модель не буде безпосередньо інтегрована у зброю, сенсори або інше бойове обладнання.

Сем Альтман визнає поспішність: для «зниження напруги» у галузі?

У соцмережі X Сем Альтман особисто відповів на запитання. Він зізнався, що ця угода «дійсно була поспішною», і визнав, що компанія зазнала значного спротиву.

Це спротив був настільки сильним, що навіть відобразився у конкуренції на ринку: у суботу модель Anthropic Claude вперше піднялася вище за ChatGPT за кількістю завантажень у App Store.

(Anthropic отримала розірвання контракту з Пентагоном, кількість завантажень Claude зросла і стала лідером)

Чому ж тоді все ж підписали угоду?

Альтман зазначив: «Ми справді хотіли знизити напругу, і вважаємо цю угоду цілком обґрунтованою». Він додав, що якщо ця співпраця допоможе зменшити напругу між Міноборони та індустрією AI, OpenAI вважатиметься компанією, яка під тиском сприяє стабілізації; якщо ні — критика щодо поспішності та необережності зросте.

Битва за межі AI і оборони: новий етап галузі

Ця ситуація підкреслює глибшу проблему: коли технології штучного інтелекту стають дедалі більш зрілими, як технологічні компанії можуть балансувати між національною безпекою та етичними межами?

Anthropic дотримався принципів і в результаті втратив урядовий контракт; OpenAI швидко втрутилася і намагається через технічні архітектури та правові механізми забезпечити безпечні межі. Обидві стратегії відображають різні підходи до ризиків.

У майбутньому співпраця між AI-компаніями та урядом стане ще частішою. Важливо, щоб ці партнерства забезпечували безпеку країни, зберігаючи при цьому свободу громадян і етичні стандарти технологій.

Ця стаття: OpenAI отримала контракт із Пентагоном! Сем Альтман визнає «поспішне рішення», наголошує на забороні масштабного контролю та автономної зброї. Першоджерело — Chain News ABMedia.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів