Генеральний директор Anthropic обурюється: контракти OpenAI із Пентагоном — це всі брехня, Altman маскує себе під посла миру

動區BlockTempo

Антропік виконавчий директор Амодей внутрішній меморандум витік, прямо звинувативши керівника OpenAI Алтмана у «повній брехні», дві гігантські AI-компанії відкрито зіштовхнулися у питанні військових контрактів.
(Передісторія: Сам Алтман — підозрюваний у зраді? Щойно Pentagon заборонив Anthropic, він повернувся і закликав OpenAI отримати контракт з Міноборони США)
(Додатковий фон: Wall Street Journal повідомляє: Трамп використовує Claude AI для визначення цілей у Ірані, OpenAI повністю контролює системи Пентагону)

Зміст статті

Перемикач

  • Останній ультиматум, що розпалив конфлікт
  • Реалістичний курс OpenAI
  • Реальна сцена, викрита меморандумом
  • Миттєва реакція користувачів і ринку

1

Витік внутрішнього меморандуму Антропік, написаного виконавчим директором Даріо Амодеї для співробітників, прямо звинуватив керівника OpenAI Сам Алтмана у «повній брехні» та назвав останні угоди з Міноборони «показухою безпеки».

Дві найбільші у світі AI-компанії у вирішальній суперечці щодо майбутнього AI на найближчі десять років.

Останній ультиматум, що розпалив конфлікт

Причиною конфлікту стала угода Антропік на 200 мільйонів доларів із військовим відомством. За допомогою співпраці з Palantir, Claude AI від Антропік вже працює у секретних військових мережах.

Однак наприкінці лютого ситуація різко змінилася: Міноборони США висунуло Антропік ультиматум: видалити всі обмеження щодо використання AI, дозволивши «будь-яке легальне застосування» без обмежень, інакше контракт буде розірвано до 27 лютого, а компанію внесуть до чорного списку.

Амодей відмовився публічно, заявивши, що «не може ігнорувати совість» і дотримуватися таких умов, зберігши дві червоні лінії:

  • Перша — заборона автономних озброєнь: AI не має приймати остаточні цілі на полі бою
  • Друга — заборона масового внутрішнього контролю: заборона створювати інструменти масового спостереження за громадянами США

Додаткове читання: Трамп планує повністю заборонити Anthropic! Відмовляється від Claude з «вбивчими обмеженнями»

Відповідь була швидкою і жорсткою. Всього за кілька годин після відмови Anthropic, уряд Трампа включив компанію до «ризиків ланцюга поставок» (цей термін зазвичай застосовується до іноземних ворогів), фактично заборонивши їй участь у всіх федеральних контрактах, і назвавши «радикальними лівими, пробудженими та національними ризиками».

Реалістичний курс OpenAI

28 лютого, через кілька годин після заборони Anthropic, Алтман оголосив, що OpenAI уклала угоду з Міноборони. У блозі компанії заявили, що угода містить ті ж «червоні лінії»: обмеження автономних озброєнь, масового внутрішнього контролю та ключових автоматичних рішень.

Однак у деталях криється підступ. Угода OpenAI дозволяє «усі легальні цілі», тоді як Anthropic наполягає на забороні у чіткій формі. OpenAI пояснює: «У нашій взаємодії Міноборони чітко заявило, що масовий внутрішній контроль є незаконним і такого плану немає.»

Критики одразу вказали на проблему: закони змінюються. Те, що сьогодні вважається незаконним, завтра може стати дозволеним, і тому контракт, заснований на «легальних цілях», по суті є вразливим.

Реальна сцена, викрита меморандумом

У витеклому меморандумі Амодей досить прямо оцінює цю інформаційну боротьбу:

Я вважаю, що спроби маніпулювати громадською думкою у ЗМІ не працюють: більшість вважає, що угода OpenAI з Міноборони підозріла, а ми — герої.

Він також прямо критикує мотиви Алтмана:

Вони погодилися, бо їм важливо заспокоїти співробітників, а ми — справді прагнемо запобігти зловживанням.

За повідомленнями TechCrunch, Амодей у меморандумі звинуватив Алтмана у тому, що він «притворяється миротворцем і майстром угод». На хвилі критики Алтман на відкритій зустрічі з командою визнав, що це рішення має дуже складні наслідки для репутації, але наполягав, що це складне, але правильне рішення для національної безпеки.

Миттєва реакція користувачів і ринку

Зі зростанням напруги користувачі починають діяти. Останнім часом кількість користувачів ChatGPT різко зросла; одночасно кількість завантажень Claude від Anthropic значно зросла.

Anthropic обрала відмову і сплатить ціну — втрату федеральних контрактів і зв’язків із урядом; OpenAI обрала співпрацю з обмеженнями, що позначається на довірі користувачів і репутації бренду. Обидва варіанти мають логіку, але й ціну.

Найбільш тривожною є таємниця: ця суперечка відкриває глибшу проблему — у час швидкої військової мобілізації AI межа між «законним» і «правильним» дедалі більше розмивається.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів