Антропік виконавчий директор Амодей внутрішній меморандум витік, прямо звинувативши керівника OpenAI Алтмана у «повній брехні», дві гігантські AI-компанії відкрито зіштовхнулися у питанні військових контрактів.
(Передісторія: Сам Алтман — підозрюваний у зраді? Щойно Pentagon заборонив Anthropic, він повернувся і закликав OpenAI отримати контракт з Міноборони США)
(Додатковий фон: Wall Street Journal повідомляє: Трамп використовує Claude AI для визначення цілей у Ірані, OpenAI повністю контролює системи Пентагону)
Зміст статті
Перемикач
1
Витік внутрішнього меморандуму Антропік, написаного виконавчим директором Даріо Амодеї для співробітників, прямо звинуватив керівника OpenAI Сам Алтмана у «повній брехні» та назвав останні угоди з Міноборони «показухою безпеки».
Дві найбільші у світі AI-компанії у вирішальній суперечці щодо майбутнього AI на найближчі десять років.
Причиною конфлікту стала угода Антропік на 200 мільйонів доларів із військовим відомством. За допомогою співпраці з Palantir, Claude AI від Антропік вже працює у секретних військових мережах.
Однак наприкінці лютого ситуація різко змінилася: Міноборони США висунуло Антропік ультиматум: видалити всі обмеження щодо використання AI, дозволивши «будь-яке легальне застосування» без обмежень, інакше контракт буде розірвано до 27 лютого, а компанію внесуть до чорного списку.
Амодей відмовився публічно, заявивши, що «не може ігнорувати совість» і дотримуватися таких умов, зберігши дві червоні лінії:
Додаткове читання: Трамп планує повністю заборонити Anthropic! Відмовляється від Claude з «вбивчими обмеженнями»
Відповідь була швидкою і жорсткою. Всього за кілька годин після відмови Anthropic, уряд Трампа включив компанію до «ризиків ланцюга поставок» (цей термін зазвичай застосовується до іноземних ворогів), фактично заборонивши їй участь у всіх федеральних контрактах, і назвавши «радикальними лівими, пробудженими та національними ризиками».
28 лютого, через кілька годин після заборони Anthropic, Алтман оголосив, що OpenAI уклала угоду з Міноборони. У блозі компанії заявили, що угода містить ті ж «червоні лінії»: обмеження автономних озброєнь, масового внутрішнього контролю та ключових автоматичних рішень.
Однак у деталях криється підступ. Угода OpenAI дозволяє «усі легальні цілі», тоді як Anthropic наполягає на забороні у чіткій формі. OpenAI пояснює: «У нашій взаємодії Міноборони чітко заявило, що масовий внутрішній контроль є незаконним і такого плану немає.»
Критики одразу вказали на проблему: закони змінюються. Те, що сьогодні вважається незаконним, завтра може стати дозволеним, і тому контракт, заснований на «легальних цілях», по суті є вразливим.
У витеклому меморандумі Амодей досить прямо оцінює цю інформаційну боротьбу:
Я вважаю, що спроби маніпулювати громадською думкою у ЗМІ не працюють: більшість вважає, що угода OpenAI з Міноборони підозріла, а ми — герої.
Він також прямо критикує мотиви Алтмана:
Вони погодилися, бо їм важливо заспокоїти співробітників, а ми — справді прагнемо запобігти зловживанням.
За повідомленнями TechCrunch, Амодей у меморандумі звинуватив Алтмана у тому, що він «притворяється миротворцем і майстром угод». На хвилі критики Алтман на відкритій зустрічі з командою визнав, що це рішення має дуже складні наслідки для репутації, але наполягав, що це складне, але правильне рішення для національної безпеки.
Зі зростанням напруги користувачі починають діяти. Останнім часом кількість користувачів ChatGPT різко зросла; одночасно кількість завантажень Claude від Anthropic значно зросла.
Anthropic обрала відмову і сплатить ціну — втрату федеральних контрактів і зв’язків із урядом; OpenAI обрала співпрацю з обмеженнями, що позначається на довірі користувачів і репутації бренду. Обидва варіанти мають логіку, але й ціну.
Найбільш тривожною є таємниця: ця суперечка відкриває глибшу проблему — у час швидкої військової мобілізації AI межа між «законним» і «правильним» дедалі більше розмивається.