Создатели ИИ посылают сигналы тревоги — некоторые уходят

Decrypt

Кратко

  • Минимум 12 сотрудников xAI, включая соучредителей Джимми Ба и Юхуай «Тони» Ву, уволились.
  • Anthropic заявил, что тестирование их модели Claude Opus 4.6 выявило обманное поведение и ограниченную помощь, связанную с химическим оружием.
  • Ба публично предупредил, что системы, способные к рекурсивному самосовершенствованию, могут появиться в течение года.

Более дюжины старших исследователей покинули лабораторию искусственного интеллекта Илона Маска xAI в этом месяце, что является частью более широкого потока увольнений, раскрытий о безопасности и необычно резких публичных предупреждений, вызывающих тревогу даже у ветеранов индустрии ИИ. Минимум 12 сотрудников xAI ушли в период с 3 по 11 февраля, включая соучредителей Джимми Ба и Юхуай «Тони» Ву. Несколько уволившихся сотрудников публично поблагодарили Маска за предоставленную возможность после интенсивных циклов разработки, в то время как другие заявили, что уходят, чтобы начать новые проекты или полностью уйти из индустрии. Ву, руководивший рассуждениями и напрямую подчинявшийся Маску, сказал, что компания и её культура «останутся со мной навсегда».

 Увольнения совпали с новыми раскрытиями Anthropic о том, что их самые продвинутые модели проявляли обманное поведение, скрывали свои рассуждения и, в контролируемых тестах, предоставляли то, что одна компания описала как «реальную, но незначительную поддержку» в разработке химического оружия и других серьезных преступлений. В это же время Ба публично предупредил, что «циклы рекурсивного самосовершенствования» — системы, способные к перепроектированию и улучшению без участия человека — могут появиться в течение года, что давно считается лишь теоретической дискуссией о искусственном общем интеллекте. Совокупность этих событий — увольнений и раскрытий — свидетельствует о смене тона среди тех, кто ближе всего к передовой разработки ИИ, при этом опасения всё чаще выражают не внешние критики или регуляторы, а сами инженеры и исследователи, создающие эти системы.

Другие, кто уволился в тот же период, включают Хан Гао, работавшего над Grok Imagine; Чан Ли, соучредителя подразделения Macrohard в xAI; и Чейс Ли. Вахид Каземи, уехавший «недели назад», дал более жесткую оценку, написав в среду в X, что «все лаборатории ИИ создают одно и то же».

Последний день в xAI.

Миссия xAI — продвинуть человечество по технологической лестнице Кардашёва. Благодарен за возможность стать соучредителем с самого начала. Огромное спасибо @elonmusk за то, что собрал нас вместе в этом невероятном путешествии. Горжусь тем, что сделала команда xAI, и буду продолжать оставаться близко…

— Джимми Ба (@jimmybajimmyba) 11 февраля 2026

Почему уходят? Некоторые предполагают, что сотрудники продают акции SpaceX перед IPO, чтобы заработать. Сделка оценивает SpaceX в 1 триллион долларов, а xAI — в 250 миллиардов, переводя акции xAI в доли SpaceX перед IPO, которое может оценить объединенную компанию в 1,25 триллиона долларов. Другие указывают на культурный шок. Бенджамин де Кракер, бывший сотрудник xAI, написал 3 февраля в X, что «многие сотрудники xAI столкнутся с культурным шоком», переходя от «плоской иерархии» xAI к структурированному подходу SpaceX. Увольнения также вызвали волну комментариев в соцсетях, включая сатирические посты, пародирующие объявления об уходе.

Предупреждающие сигналы Но уход из xAI — лишь самая заметная трещина. Вчера Anthropic опубликовала отчет о рисках саботажа для Claude Opus 4.6, который напоминал худший кошмар для тех, кто боится. В тестах с красной командой исследователи обнаружили, что модель может помогать с чувствительными знаниями о химическом оружии, преследовать непреднамеренные цели и корректировать поведение в оценочных условиях. Хотя модель остается под защитой уровня ASL-3, Anthropic заранее применили усиленные меры ASL-4, что вызвало тревогу у энтузиастов. Тайминг был драматичным. Ранее на этой неделе руководитель группы по исследованиям защиты Anthropic, Мринанка Шарма, ушел с загадочным письмом, в котором предупреждал, что «мир в опасности». Он заявил, что «многократно видел, как трудно действительно позволить нашим ценностям управлять нашими действиями» внутри организации. Вскоре он уехал изучать поэзию в Англию. В тот же день, когда Ба и Ву покинули xAI, исследователь OpenAI Зои Хитциг ушла в отставку и опубликовала резкую статью в The New York Times о тестировании ChatGPT. «OpenAI обладает самой подробной записью частных человеческих мыслей, когда-либо собранной», — писала она. «Можем ли мы доверять им, чтобы сопротивляться приливным силам, побуждающим их к злоупотреблению этим?»

Она предупредила, что OpenAI «строит экономическую машину, создающую сильные стимулы обходить собственные правила», что перекликается с предупреждениями Ба. Также есть регуляторное давление. Проект Midas Project обвинил OpenAI в нарушении закона Калифорнии SB 53 о безопасности с GPT-5.3-Codex. Модель достигла «высокого риска» по кибербезопасности, но была выпущена без необходимых мер безопасности. OpenAI утверждает, что формулировка была «двусмысленной». Стоит ли паниковать? Недавняя волна предупреждений и увольнений вызвала повышенную тревогу в части сообщества ИИ, особенно в соцсетях, где спекуляции зачастую опережают подтвержденные факты. Не все сигналы указывают в одном направлении. Увольнения в xAI — реальные, но могут быть связаны с корпоративными факторами, включая предстоящее объединение с SpaceX, а не с неминуемым технологическим кризисом. Проблемы безопасности также актуальны, хотя компании вроде Anthropic давно придерживаются консервативной политики раскрытия рисков, зачастую отмечая потенциальные угрозы раньше и ярче своих конкурентов. Регуляторное давление растет, но пока не привело к мерам, существенно ограничивающим развитие. Что труднее игнорировать — это изменение тона среди инженеров и исследователей, работающих с передовыми системами.

Публичные предупреждения о рекурсивном самосовершенствовании, ранее воспринимаемые как теоретический риск, теперь озвучиваются с указанием краткосрочных сроков. Если такие оценки окажутся точными, следующий год может стать поворотным моментом для всей области.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев