Anthropic подала в суд на Пентагон: внесение в черный список и блокировка могут привести к потерям в миллиарды долларов и серьезно повлиять на способность привлекать финансирование

ChainNewsAbmedia

Американский стартап в области ИИ Anthropic сегодня официально подал иск в суд против Министерства обороны США (Пентагона) и нескольких федеральных агентств, протестуя против включения их в список «рисков цепочки поставок». Anthropic обвиняет это в отсутствии обоснованных оснований, что может привести к потере миллиардов долларов дохода и негативно сказаться на их возможностях привлечения финансирования и будущей оценке при IPO. Этот случай также подчеркивает растущий конфликт между военным применением ИИ и этическими стандартами бизнеса.

Причина конфликта: разрыв сотрудничества Anthropic с Пентагоном

Ранее сообщалось, что причиной инцидента стал разрыв переговоров между Anthropic и Министерством обороны. Минобороны хотело получить право на использование ИИ-моделей для «всех законных целей» в военных проектах, однако Anthropic настаивал на сохранении ограничений в использовании технологий и соблюдении базовых этических принципов.

Генеральный директор компании Dario Amodei заявил, что у компании есть две непроходимые красные линии: запрет на использование ИИ в смертельно опасных автономных оружиях и запрет на использование для массового внутреннего слежения. В итоге стороны не смогли договориться, и правительство США включило Anthropic в черный список компаний, представляющих риск для цепочки поставок, что привело к полному разрыву переговоров.

(Когда ИИ становится оружием массового уничтожения: Бен Томпсон о конфликте Anthropic и Пентагона)

Влияние черного списка: потеря миллиардных контрактов и давление на привлечение капитала

По данным Bloomberg, в ходе судебного разбирательства Anthropic указала, что такие метки риска цепочки поставок обычно применяются к компаниям из Китая или России, считающимся угрозами национальной безопасности. Это означает, что партнеры вынуждены избегать использования технологий компании под давлением правительства, что может привести к потере значительных клиентов и государственных контрактов.

Финансовый директор Anthropic Krishna Rao подчеркнул, что если корпоративные клиенты опасаются, что сотрудничество с Anthropic повлияет на их отношения с правительством, это может привести к ежегодной потере миллиардов долларов дохода. Также это может ослабить доверие инвесторов и создать давление на будущие раунды финансирования и оценку при IPO.

(Anthropic запускает план продажи акций на сумму 6 миллиардов долларов, открывающий окно для выхода из бизнеса при оценке в 350 миллиардов долларов)

Конфликт в индустрии ИИ: этические ограничения против военных требований

Этот инцидент также выявил сложность балансировки между этическими стандартами и военными потребностями в индустрии ИИ. Более 30 инженеров и ученых из технологических компаний и исследовательских институтов, включая главного ученого Google DeepMind Jeff Dean, подали в суд заявления в поддержку позиции Anthropic.

Они предупредили: «Если позволить продолжать такую практику наказания ведущих американских ИИ-компаний, это безусловно ослабит конкурентоспособность США в области ИИ и других научных сфер.»

С другой стороны, компания OpenAI заключила соглашение с Пентагоном, позволяя своим моделям участвовать в чувствительных военных задачах. Однако резкий рост числа удалений ChatGPT, по-видимому, отражает опасения пользователей о возможном слежке и контроле со стороны правительства.

(Трижды выросло число удалений ChatGPT, сотрудничество OpenAI с Пентагоном вызывает опасения по поводу слежки)

Эскалация судебных разбирательств: противостояние технологий и власти

По мере продвижения дела в судебной системе, конфликт перерос из коммерческого разрыва в юридическую борьбу между технологическими компаниями и государством. Представитель Белого дома Liz Huston заявил, что правительство не допустит ограничения военных технологий «идеологическими» условиями, подчеркнув, что политика в области обороны будет ориентирована на национальную безопасность.

Обучающий специалист по ИИ @VraserX отметил, что этот случай может серьезно навредить бизнес-перспективам Anthropic, вызвав регуляторное давление, утечку клиентов, политические репрессии или панические настроения среди инвесторов; однако он также может помочь определить новые границы ответственности и полномочий в военном сотрудничестве с ИИ-компаниями.

Эта статья «Anthropic подает в суд на Пентагон: черный список и блокировка могут привести к потере миллиардов долларов и разрушению возможностей привлечения капитала» впервые появилась на ресурсе Chain News ABMedia.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев