Anthropic поновлює переговори з Пентагоном, ризики ланцюга постачання та позначки загрожують військовій співпраці AI

MarketWhisper

Anthropic відновлює переговори з Пентагоном

Розробник штучного інтелекту Anthropic генеральний директор Даріо Амодей вже відновив переговори з заступником міністра оборони США з досліджень та інженерії Емілом Майклом з метою досягти домовленості до того, як компанію офіційно визнають ризиковим постачальником для оборонної ланцюга постачань, зберегти військове співробітництво. За повідомленням британської газети Financial Times з посиланням на джерела, якщо Anthropic буде офіційно визнано, її виключать із мережі закупівель американських військових.

Причина розриву переговорів: непереборний червоний лінія щодо умов обробки даних

Минулого тижня переговори раптово зірвалися. За повідомленнями, Еміл Майкл у запеклій суперечці звинуватив Даріо Амодея у «шахрайстві» та звинуватив його у «богоманії». Основною причиною конфлікту стала принципова різниця у підходах до умов використання даних: Пентагон вимагав від Anthropic видалити з контракту положення, що обмежують «аналіз великої кількості отриманих даних», що мало бути передумовою для прийняття інших умов компанії.

Амодей у внутрішньому меморандумі чітко зазначив, що ця умова спрямована на запобігання потенційного масштабного внутрішнього контролю, і позиціонує Anthropic як непохитну червону лінію, рівну за важливістю забороні використання ШІ для смертельно небезпечних автономних озброєнь. Міністр оборони Піт Гегсет додатково посилив тиск, попередивши, що у разі невирішення переговорів Anthropic офіційно визнають ризиковим постачальником для ланцюга постачань.

Військове застосування Claude: глибока залежність від контракту на 2 мільярди доларів

Незважаючи на дипломатичну кризу, бізнес-зв’язки Anthropic із військовими США значно глибші, ніж здається:

  • Таємний контракт на 200 мільйонів доларів: підписаний у липні 2025 року, що зробив Claude першим комерційним ШІ-моделлю, допущеним до секретних середовищ та національних безпекових структур.
  • Підтримка авіаударів Ірану: американські військові використовували модель Claude для підтримки масштабних авіаційних операцій проти Ірану, навіть за кілька годин після того, як Трамп наказав федеральним агентствам припинити використання систем Anthropic.
  • Широке секретне розгортання: Claude вже застосовується у кількох сценаріях обробки секретної інформації, повний обсяг розгортання ще не розкритий.

Цей фон робить жорстку позицію Пентагону суперечливою — з одного боку, він залежить від Claude для виконання ключових військових завдань, з іншого — погрожує його визнанням безпековою загрозою, що викликає широкий резонанс у галузі.

Об’єднана підтримка технологічних гігантів: Nvidia, Apple та інші звернулися до Трампа

У середу кілька провідних організацій у галузі технологій оприлюднили спільного відкритого листа Трампу, попереджаючи, що внесення американської компанії ШІ до списку ризикових постачальників може суттєво підірвати конкурентоспроможність США у глобальній боротьбі з Китаєм. Підписанти — асоціація програмного забезпечення та інформаційних технологій, TechNet, Асоціація комп’ютерної та телекомунікаційної індустрії, Бізнес-Софт Ліга — представляють сотні американських технологічних компаній, включаючи Nvidia, Google (належить Alphabet) та Apple.

У листі прямо зазначено, що «вважати американську технологічну компанію іноземним супротивником, а не активом», перешкоджає інноваціям і послаблює глобальну конкурентоспроможність американської AI-індустрії.

Питання та відповіді

Чому Anthropic відмовляється видалити обмеження щодо аналізу великих даних?
Anthropic вважає цю умову ключовою для запобігання масштабному внутрішньому контролю і безпеці, рівною за важливістю забороні використання ШІ для смертельно небезпечних автономних озброєнь. У внутрішньому меморандумі Даріо Амодей чітко заявив, що видалення цієї умови означатиме дозвіл уряду використовувати Claude для масового контролю громадян, що є непохитною позицією компанії.

Які наслідки для Anthropic, якщо її визнають ризиковим постачальником?
Офіційне визнання означатиме виключення Anthropic із мережі закупівель військових і федеральних структур, можливе скасування контракту на 200 мільйонів доларів, а всі урядові підрядники, що використовують Claude, можуть бути змушені припинити співпрацю. Це стане не лише фінансовим ударом, а й серйозно вплине на репутацію компанії у корпоративному та державному секторах.

Чому Nvidia, Apple та інші технологічні гіганти підтримують Anthropic?
Їхня підтримка — не просто захист Anthropic, а попередження, що такі прецеденти можуть загрожувати всій американській AI-індустрії. Якщо уряд зможе за адміністративним наказом визнавати будь-яку внутрішню компанію безпеки загрозою, це створить широкий ефект «страху перед політикою», послабить довіру до американських технологій і знизить їхню інноваційну активність на глобальному рівні.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів