Компания Anthropic, руководимая Дарьо Амодеи, ранее считавшаяся одним из самых активных партнеров правительства США в области искусственного интеллекта, сейчас вступила в открытую конфронтацию с Пентагоном по двум ключевым ограничениям использования.
Амодеи подчеркнул, что компания готова поддерживать 98% — 99% оборонных целей, но на двух вопросах — «масштабный внутренний мониторинг» и «полностью автономное оружие» — держит жесткую линию. Он отметил, что это не отказ от национальной безопасности, а защита демократических ценностей и конституционных принципов США.
Высокое сотрудничество с оборонной системой, но красные линии по двум пунктам
В интервью Амодеи подчеркнул, что Anthropic — одна из первых компаний в области ИИ, которая глубоко сотрудничала с национальной безопасностью США. Он отметил, что компания первой разместила модели в секретных облачных средах и разрабатывала кастомизированные модели для нужд государства, которые сейчас широко используются разведывательными службами и военными, включая кибербезопасность и боевую поддержку.
Другими словами, Anthropic не отвергает военное применение, а активно участвует в нем.
Однако компания ясно обозначила два запрета, которые не может нарушать:
Первое — «масштабный внутренний мониторинг». Амодеи опасается, что ИИ позволяет правительству анализировать огромные объемы данных частных компаний — такие как геолокации, политические предпочтения и личные данные — в масштабах, ранее недоступных. Эти действия в рамках существующего законодательства могут быть не противозаконными, но взрывной рост технологий ИИ значительно расширил возможности слежки, выходя за рамки первоначальных законных целей.
Второе — «полностью автономное оружие», то есть системы, способные самостоятельно принимать решение о стрельбе без участия человека. Амодеи отметил, что текущие системы ИИ всё ещё имеют непредсказуемые и ненадёжные аспекты, и полное доверие машинным решениям может привести к ошибкам, случайным атакам и даже жертвам среди гражданских.
Он особо подчеркнул, что речь идёт не о «полуавтоматическом оружии», используемом на полях сражений, а о полностью безлюдных системах.
Три дня ультиматума и споры о «рисках цепочек поставок»
По словам Амодеи, Пентагон требовал от Anthropic согласия с их условиями всего за три дня, иначе компания могла быть признана «риском для цепочек поставок». Такие определения обычно применяются к иностранным компаниям — например, из России или Китая, — и практически никогда не используют в отношении американских фирм.
Более того, коммуникация велась преимущественно через посты в соцсетях. Амодеи заявил, что до сих пор не получал официальных юридических документов, а лишь видел публичные заявления президента и представителей Минобороны в X (бывшем Twitter).
Президент США Дональд Трамп даже публично раскритиковал Anthropic за «эгоизм», заявив, что это угрожает американским вооружённым силам и национальной безопасности.
На это Амодеи ответил, что компания готова помочь Минобороны безопасно перейти к другим поставщикам даже в случае санкций, чтобы избежать задержек в поставках технологий на 6–12 месяцев.
Что же является настоящей сутью проблемы?
Амодеи считает, что суть спора не в том, кто более патриотичен, а в зрелости технологий и ответственности за их использование.
Он отметил, что ИИ всё ещё обладает непредсказуемостью. Даже при высоких показателях эффективности, одна ошибка в 1% в критический момент может привести к катастрофе в военных операциях. Возможны ошибки, случайные обстрелы гражданских, неправильная идентификация целей и даже потери среди союзных сил.
Глубже стоит вопрос о «системах ответственности». Если в будущем появится сеть из миллионов беспилотных летательных аппаратов, управляемых несколькими или одним командиром, кто будет отвечать за ошибки? ИИ? Инженеры? Военные офицеры? Политические лидеры?
Эти вопросы пока не получили полного обсуждения в Конгрессе.
Может ли частный сектор превзойти государство?
Самый острый вопрос в интервью — почему частная компания имеет право решать, как военные могут использовать её технологии?
Ответ Амодеи был прост — свободный рынок.
Он отметил, что правительство вполне может выбрать другого поставщика. Если ценности не совпадают, стороны должны разойтись мирно, а не вводить санкции через «риски цепочек поставок». Он считает, что такие меры создают эффект устрашения для частных компаний.
Также он признал, что в долгосрочной перспективе не должно быть границ между частным сектором и армией — необходимо законодательное регулирование. Он призвал Конгресс разработать новые рамки для ИИ в области мониторинга и автономного оружия, чтобы законы шли в ногу с технологическим развитием.
Это вопрос идеологии?
Критики считают, что Anthropic — «компания с левыми взглядами». Амодеи отвергает это, подчеркивая, что компания сотрудничала с правительством по вопросам энергетической политики и планов по ИИ. Он заявил, что нынешний разлом не связан с политическими взглядами, а с ценностями и управлением рисками.
Он подчеркнул: «Несогласие с правительством — это самый американский поступок.»
Сможет ли Anthropic пережить этот кризис?
В бизнес-аспекте Амодеи выглядит уверенно. Он отметил, что влияние «рисков цепочек поставок» ограничено и не запретит полностью использование технологий Anthropic в гражданских сферах, а касается только военных контрактов.
Он считает, что некоторые заявления намеренно раздувают страхи, создавая эффект «FUD» (страх, неопределенность, сомнение), но основной бизнес компании останется стабильным.
Этот конфликт на самом деле выявляет более глубокую проблему: когда технологии ИИ развиваются экспоненциально, а законодательство и регулирование идут медленно, кто определит границы?
Anthropic выступает за «99% сотрудничества, 1% — осторожности», а Пентагон настаивает, что «все легальные применения должны быть открыты». Разрыв между ними — не только политический, но и предсказание будущего войны.
Эта статья о конфликте Anthropic и Пентагона! Генеральный директор Амодеи отвергает «масштабный внутренний мониторинг» и «полностью автономное оружие» впервые опубликована на ABMedia.