OpenAI и Министерство обороны США вызывают споры, Сам Альтман признал, что соглашение было поспешным, и срочно внес изменения в условия

GateNews

3 марта, по данным CNBC, генеральный директор OpenAI Сэм Олтман признал, что предыдущее соглашение компании о сотрудничестве в области искусственного интеллекта с Министерством обороны США было слишком поспешным, и заявил, что соответствующие условия будут скорректированы. Это заявление звучит на фоне продолжающегося формирования общественного мнения после того, как OpenAI объявила о сотрудничестве с Пентагоном, что вызвало широкие обсуждения этики ИИ, военного использования и безопасности данных.

Согласно публичной информации, соглашение было объявлено в прошлую пятницу, одновременно с тем, как правительство США продвигает ряд решений, связанных с национальной безопасностью. После того как новость стала известна, некоторые технологические сообщества и пользователи выразили обеспокоенность по поводу возможного использования технологий искусственного интеллекта в военных целях. Позже Сэм Олтман опубликовал в социальных сетях, что компания добавит новые ограничения в соглашение, включая чёткое указание, что системы ИИ не могут использоваться для внутреннего наблюдения за гражданами или жителями США.

Сэм Олтман также сообщил, что Министерство обороны США подтвердило, что инструменты искусственного интеллекта OpenAI не будут непосредственно использоваться разведывательным агентствами, такими как Национальное агентство безопасности (NSA), для миссий по слежке за разведкой. В то же время OpenAI планирует сотрудничать с Пентагоном для разработки дополнительных технических мер предосторожности для снижения риска злоупотребления ИИ в чувствительных ситуациях.

Генеральный директор также признал, что компания допустила ошибку в суждении, продвигая соглашение. Он отметил, что тогда команда хотела быстро снизить напряжённость и избежать более серьёзных политических конфликтов, но, оглядываясь назад, решение казалось слишком поспешным и легко могло быть воспринято как спекуляции.

Спор также касается Anthropic, другой компании, занимающейся искусственным интеллектом. Ранее Anthropic не соглашалась с правительством США по поводу границ использования своей модели ИИ Claude и требовала чётких гарантий, что её системы не будут использоваться для внутреннего наблюдения или автономного оружия. Переговоры между двумя сторонами, по сообщениям, провалились.

В то же время в сети наблюдаются заметные колебания настроений пользователей. Некоторые пользователи сократили использование ChatGPT на платформах приложений и перешли к конкурирующим продуктам, таким как Claude, что ещё больше усугубляет этические споры в индустрии ИИ.

В своём ответе Сэм Олтман также отметил, что не считает Anthropic риском для цепочки поставок и надеется, что Министерство обороны США предоставит ему аналогичные условия сотрудничества, как и OpenAI. Этот инцидент вновь подчеркнул, что в условиях стремительного развития технологий искусственного интеллекта вопрос границы между ИИ и национальной безопасностью, военными приложениями и социальным регулированием становится в центре внимания мировой технологической индустрии.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев