Антропик внутренний меморандум исполнительного директора Амодеи утек, прямо обвиняя CEO OpenAI Сэма Альтмана в «полной лжи», две крупнейшие AI-компании жестко спорят по поводу военных контрактов.
(Предыстория: Сэм Альтман — злодей? После того, как Pentagon заблокировал Anthropic, он внезапно заявил о получении контракта с Министерством обороны США)
(Дополнительный фон: Wall Street Journal сообщает: Трамп использовал Claude AI для определения местонахождения Хамени Ирана, OpenAI полностью взяла под контроль системы Пентагона)
Содержание статьи
Переключить
1
Внутренний меморандум, написанный исполнительным директором Anthropic Дарьо Амодеи для сотрудников, утек. В нем он прямо обвиняет руководителя OpenAI Сэма Альтмана в «полной лжи» и называет последние сделки с Пентагоном «показухой безопасности».
Две крупнейшие мировые AI-компании в решающем вопросе, который может определить будущее AI на ближайшие десять лет, разошлись во мнениях.
Искра конфликта — контракт Anthropic на 200 миллионов долларов с военными. Через сотрудничество с Palantir, Claude AI Anthropic уже внедрена в секретные военные сети.
Однако в конце февраля ситуация резко изменилась: Пентагон выдал Anthropic последний ультиматум: убрать все ограничения на использование AI, разрешить «любое законное применение» без ограничений, иначе контракт будет расторгнут до 27 февраля, а компанию внесут в черный список.
Генеральный директор Амодеи публично отказался, заявив, что «не может поступиться совестью», и назвал два непроходимых красных линий:
Дополнительное чтение: Трамп хочет полностью заблокировать Anthropic! Отказывается от Claude с «убийственными» ограничениями
Ответ последовал быстро и жестко. Через несколько часов после отказа Anthropic, правительство Трампа внесло компанию в список «рисков для цепочки поставок» (обычно этот ярлык используют для иностранных враждебных сил), фактически исключив ее из всех федеральных контрактов, назвав «радикальными левыми, пробужденцами» и угрозой национальной безопасности.
28 февраля, всего через несколько часов после блокировки Anthropic, Альтман объявил, что OpenAI достигла соглашения с министерством обороны. В официальном блоге OpenAI говорится, что контракт включает те же «красные линии»: ограничения автономных оружий, массового внутреннего наблюдения и автоматизированных решений.
Но в деталях скрыт подвох. Контракт OpenAI разрешает «любое законное применение», в отличие от четкого запрета Anthropic. OpenAI объясняет: «В наших взаимодействиях министерство ясно заявило, что массовое внутреннее наблюдение незаконно, и у них таких планов нет.»
Критики сразу указали на проблему: законы меняются. То, что сегодня считается незаконным, завтра может стать допустимым, и защита контрактом по принципу «законное применение» по сути уязвима.
В утекшем меморандуме Амодеи прямо оценивает информационную войну:
Я считаю, что попытки манипулировать общественным мнением и СМИ неэффективны: большинство считает, что сделка OpenAI с министерством вызывает подозрение, а мы — герои.
Он также прямо критикует мотивацию Альтмана:
Их главная причина — угодить сотрудникам, а наша — предотвратить злоупотребления.
По данным TechCrunch, Амодеи в меморандуме обвиняет Альтмана «в маскировке себя как миротворца и мастера сделок». В ответ на шквал критики Альтман признал на общем собрании OpenAI, что это решение принесет серьезные репутационные потери, но считает его сложным, но правильным с точки зрения национальной безопасности.
По мере развития событий пользователи активно реагируют. Недавно количество скачиваний ChatGPT резко выросло; одновременно скачивания Claude от Anthropic значительно увеличились.
Anthropic выбрала отказ и понесла последствия — потерю федеральных контрактов и связей с правительством; OpenAI выбрала сотрудничество с ограничениями — потерю доверия пользователей и репутации бренда. Обе стратегии логичны, но имеют цену.
Самое тревожное — этот конфликт выявил более глубокую проблему: в эпоху быстрого военного использования AI граница между «законным» и «правильным» все больше размывается.