Anthropic та Пентагон вступили у конфлікт! Генеральний директор Amodei відмовився від «масштабного внутрішнього спостереження» та «повністю автономної зброї»

ChainNewsAbmedia

З компанією Anthropic, яку очолює Dario Amodei, раніше вважали однією з найактивніших у співпраці з урядом США у сфері штучного інтелекту. Тепер вона відкрито протистоїть Пентагону через два ключові обмеження у використанні.

Amodei підкреслює, що компанія готова підтримувати 98%–99% військових цілей, але твердо дотримується меж у питаннях «масового внутрішнього спостереження» та «повністю автономної зброї». Він зазначає, що це не відмова від національної безпеки, а захист демократичних цінностей і конституційних принципів США.

В тісній співпраці з оборонною системою, але з чіткими червоними лініями

Amodei у інтерв’ю наголошує, що Anthropic була однією з перших компаній у сфері штучного інтелекту, яка глибоко співпрацювала з національними спецслужбами США. Вона першою розгорнула моделі у секретних хмарах, створювала кастомізовані моделі для національної безпеки, які вже широко використовуються розвідкою та військовими, зокрема у сферах кібербезпеки та підтримки операцій.

Інакше кажучи, Anthropic не відмовляється від військового застосування, а навпаки — активно залучена.

Однак компанія чітко окреслила дві заборони у використанні:

Перша — «масове внутрішнє спостереження». Amodei побоюється, що AI дозволяє уряду аналізувати великі обсяги даних приватних компаній, таких як місцеперебування, політичні уподобання та особисті дані. Хоча ці дії не порушують чинне законодавство, стрімкий розвиток технологій уже значно розширив можливості спостереження понад законодавчі межі.

Друга — «повністю автономна зброя», тобто системи, що автоматично приймають рішення про застосування вогню без участі людини. Amodei наголошує, що сучасні системи AI ще мають проблеми з передбачуваністю та надійністю, і повністю довіряти їм рішення про стрільбу може призвести до помилок, випадкових влучень і навіть поранень цивільних.

Він особливо підкреслює, що це не стосується «напівавтоматичних» систем, які вже використовуються на полі бою, а стосується систем, що працюють без людського контролю.

Три дні ультиматуму та суперечка щодо «ризиків ланцюга поставок»

За словами Amodei, Пентагон вимагав від Anthropic погодитися з їхніми умовами всього за три дні, інакше компанію позначать як «ризик у ланцюгу поставок». Такі визначення зазвичай застосовують до іноземних конкурентів, наприклад, російських або китайських компаній, і майже ніколи — до американських.

Більш спірним є те, що комунікація здебільшого відбувалася через пости у соцмережах. Amodei стверджує, що до цього часу компанія не отримувала офіційних юридичних документів, а лише бачила публічні заяви президента і представників Міноборони у X (колишній Twitter).

Президент США Дональд Трамп навіть відкрито критикував Anthropic за «егоїзм», називаючи це загрозою для військових і національної безпеки.

На це Amodei відповідає, що компанія готова допомогти Міноборони безпосередньо, навіть за умов санкцій, щоб уникнути відставання у технологіях на 6–12 місяців через перехід до інших постачальників.

Яка справжня суть проблеми?

Amodei вважає, що суть суперечки полягає не у «патріотизмі», а у зрілості технологій і відповідальності.

Він наголошує, що AI ще має багато невизначеностей. Навіть при високій ефективності, 1% помилок у критичних ситуаціях може спричинити катастрофу — поранення цивільних, помилкове визначення цілей, дружніх сил або навіть загибель військових.

Глибше питання — це «механізм відповідальності». Якщо у майбутньому з’явиться мережа з мільйонів безпілотників, керованих кількома або одним командиром, хто нестиме відповідальність за помилки? AI? інженери? військові командири? політики?

Ці питання досі не отримали повного обговорення у Конгресі.

Чи приватний сектор домінує над урядом?

Найгостріше питання у інтерв’ю — чому приватна компанія має право вирішувати, як військові можуть використовувати її технології?

В Amodei відповідає просто — вільний ринок.

Він наголошує, що уряд цілком може обрати інших постачальників. Якщо цінності не співпадають, сторони мають розійтися мирно, а не вводити санкції через «ризик у ланцюгу поставок». Така практика створює ефект «страху перед приватним сектором».

Водночас він визнає, що у довгостроковій перспективі приватний сектор не повинен самостійно визначати межі співпраці з військовими, а це має регулюватися законодавством. Він закликає Конгрес розробити нові рамки для AI у сферах спостереження та автономної зброї, щоб законодавство наздогнало технології.

Чи це ідеологічна боротьба?

Зовнішні критики називають Anthropic «компанією з лівим ухилом». Amodei заперечує це, наголошуючи, що компанія співпрацює з урядом у питаннях енергетичної політики та планів щодо AI. Він каже, що цей конфлікт не пов’язаний із політичними переконаннями, а з цінностями і ризиками.

Він підкреслює: «Несхвалення уряду — це найамериканськіший вчинок.»

Чи зможе Anthropic витримати цей шторм?

З комерційної точки зору, Amodei виглядає впевненим. Він зазначає, що вплив позначки «ризик у ланцюгу поставок» обмежений і не забороняє іншим компаніям використовувати технології Anthropic у військових цілях.

Він вважає, що деякі висловлювання навмисно посилюють страх і створюють «фейкові новини» (FUD), але основний бізнес компанії залишиться стабільним.

Ця суперечка фактично піднімає більш глобальне питання: коли технології AI розвиваються експоненційно швидко, а законодавство і регулювання йдуть повільно, хто визначатиме межі?

Anthropic стверджує: «99% можна співпрацювати, 1% — потрібно обережно», тоді як Пентагон наголошує: «усі легальні цілі мають бути відкритими». Різниця між ними — це не лише політичні розбіжності, а й різні уявлення про майбутній вигляд війни.

Ця стаття «Anthropic і Пентагон вступили у відкритий конфлікт! Генеральний директор Amodei відмовився від «масового внутрішнього спостереження» та «повністю автономної зброї»» вперше з’явилася на Chain News ABMedia.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів