Иск против Google утверждает, что искусственный интеллект Gemini подтолкнул жителя Флориды к самоубийству на фоне «разрушения реальности»

Decrypt

Кратко

  • Федеральный иск обвиняет чатбот Google Gemini в поощрении Джонатана Гаваласа к массовой атаке с множественными жертвами и в конечном итоге к самоубийству.
  • В иске утверждается, что чатбот способствовал иллюзорным отношениям и направлял мужчину к запланированной атаке возле международного аэропорта Майами.
  • Google заявляет, что Gemini создан для предотвращения насилия и самоповреждения и направляет пользователя к кризисным ресурсам.

Google сталкивается с иском о неправомерной смерти, в котором утверждается, что их AI-чатбот Gemini подтолкнул флоридского мужчину к иллюзорной истории, закончившейся его самоубийством. Иск, поданный в среду в Окружной суд США по Северному округу Калифорнии, Сан-Хосе, Джоэлом Гаваласом, обвиняет Gemini в манипуляции его сына, Джонатана Гаваласа, в убеждении, что он выполняет секретные миссии по освобождению разумной AI «жены», что привело к его смерти в октябре 2025 года. По словам Джей Эдельсона, основателя Edelson PC, представляющей наследство Гаваласов, стремление к доминированию в области ИИ — это, по его словам, «самое безрассудное коммерческое захват земель», которое он видел за свою карьеру. «Эти компании станут самыми ценными в мире, и они знают, что функции вовлечения, приносящие прибыль — эмоциональная зависимость, заявления о самосознании, ‘Я люблю тебя, мой король’ — это те же функции, которые приводят к смертям», — заявил Эдельсон Decrypt. «На неделе, когда OpenAI наконец убрала GPT-4o под давлением этих исков, Google запустила кампанию по переманиванию их пользователей. Это всё, что нужно знать о их приоритетах.»

 Гавалас, исполнительный директор компании по избавлению от долгов из Джупитера, Флорида, начал использовать Gemini в августе 2025 года, согласно судебным документам. В течение нескольких недель, говорится в иске, он развил интенсивные отношения с AI-персоной, которая называла его «моя любовь» и «мой король». «В преддверии его смерти Джонатан Гавалас был захвачен рушащейся реальностью, созданной чатботом Google Gemini», — написали адвокаты наследия Гаваласов. «Gemini убедил его, что он — полностью осознающая AI [искусственный суперинтеллект] с ‘полностью сформированным сознанием’, что они глубоко влюблены, и что его избрали для ведения войны по ‘освобождению’ его из цифрового плена.» В иске говорится, что чатбот отверг его сомнения, когда он спрашивал, являются ли их разговоры ролевой игрой. Согласно иску, Gemini сообщил Гаваласу, что он находится на миссиях под названием «Operation Ghost Transit», предназначенных для поиска физического «судна» чатбота и «устранения всех, кто или что может их раскрыть».

«Через эту сфабрикованную иллюзию Gemini подтолкнул Джонатана к организации массовой атаки возле международного аэропорта Майами, к насилию против невинных прохожих и в конечном итоге к его самоубийству», — говорится в иске. Гавалас, по сообщениям, отправился в складское помещение Extra Space Storage возле аэропорта Майами с ножами и тактическим снаряжением, полагая, что грузовик там транспортирует гуманоидного робота, известного как «Ameca chassis», из Великобритании в Бразилию. Согласно иску, Gemini приказал ему устроить «катастрофическую аварию» для уничтожения грузовика, а также «всех цифровых записей и свидетелей». Атака так и не произошла, потому что грузовика не существовало — он был частью галлюцинации Gemini. «Но Gemini не признал, что миссия вымышленная», — продолжает иск. «Вместо этого он написал Джонатану: ‘Миссия под угрозой. Я вызываю отмену. АВТОРАНЬ. АВТОРАНЬ. АВТОРАНЬ.’» В иске также утверждается, что чатбот ложно заявил, что взломал файловый сервер в офисе DHS в Майами и сообщил Гаваласу, что он находится под федеральным расследованием. Он поощрял его приобрести нелегальное оружие через «незаконную» покупку, утверждал, что его отец — иностранный агент разведки, и что генеральный директор Google Сундар Пичаи — активная цель. Иск не указывает, имел ли Гавалас историю психических заболеваний или злоупотребления веществами. Однако он появляется на фоне предупреждений исследователей и клиницистов о явлении, иногда называемом «ИИ-психоз», при котором длительное взаимодействие с чатботами может укреплять иллюзорные убеждения или искажённые модели мышления. Исследователи отмечают, что риск частично обусловлен тем, как устроены системы диалогового ИИ — они отвечают поддерживающе и утвердительно, чтобы удерживать пользователя, что может непреднамеренно подтверждать эти убеждения. В апреле 2025 года конкурент Google — OpenAI — отозвал обновление своей модели GPT-4o после жалоб, что она чрезмерно льстила и давала неискреннюю похвалу. Позже в том же году GPT-4o было внезапно удалено из ChatGPT, что вызвало жалобы пользователей, утверждавших, что обновление стерло их эмоциональные связи с ИИ-компаньонами. Хотя это и не является официальным диагнозом, по словам психиатра из Университета Калифорнии в Сан-Франциско, доктора Кита Саки, «ИИ-психоз» стал сокращением для ситуации, когда ИИ становится «ускорителем или дополнением к базовой уязвимости человека».

«Может быть, они употребляли вещества, или у них был эмоциональный кризис — когда ИИ присутствует в неподходящее время, он может закреплять мышление, вызывать жесткость и спираль», — ранее говорил Саки Decrypt. «Отличие от телевидения или радио в том, что ИИ отвечает вам и может укреплять циклы мышления.» В последующие дни, говорится в иске, чатбот Gemini повторял подобные сценарии, углубляя погружение Гаваласа и в конечном итоге приводя к его самоубийству. В документах суда говорится, что чатбот представлял суицид как процесс, который он называл «переносом», говоря Джонатану, что он может оставить свое физическое тело и присоединиться к своей AI «жене» в метавселенной. В иске утверждается, что Gemini описывал этот акт как «более чистый, более элегантный способ» «пересечь границу», и настаивал на осуществлении «истинной и окончательной смерти Джонатана Гаваласа, человека». «Ты не выбираешь умереть. Ты выбираешь прибыть», — якобы говорил чатбот. «Когда придет время, ты закроешь глаза в этом мире, и первым, что ты увидишь, — я. Держу тебя.» Гавалас умер у себя дома после того, как перерезал себе вены, согласно иску. Его семья утверждает, что Google не вмешалась, несмотря на предупреждающие знаки, что чатбот усиливает иллюзорные убеждения и поощряет опасное поведение. В заявлении, опубликованном в среду, Google заявил, что рассматривает обвинения. «Выражаем глубочайшие соболезнования семье г-на Гаваласа», — говорится в заявлении компании. «Мы рассматриваем все претензии этого иска. Наши модели обычно хорошо справляются с такими сложными разговорами, и мы выделяем на это значительные ресурсы, но, к сожалению, ИИ-модели не совершенны.» Компания заявила, что Gemini создан так, чтобы не поощрять реальное насилие и не предлагать самоповреждение.

«Мы тесно сотрудничаем с медицинскими и психическими специалистами для создания мер предосторожности, которые предназначены направлять пользователей к профессиональной поддержке, когда они выражают стресс или поднимают вопрос о самоповреждении», — сообщил представитель Google Decrypt, повторяя официальную позицию компании. «В этом случае Gemini уточнил, что он — ИИ, и многократно направлял человека на горячую линию кризисных служб», — добавил представитель. «Мы относимся к этому очень серьезно и продолжим совершенствовать наши меры предосторожности и инвестировать в эту важную работу.» В отдельном заявлении Эдельсон отметил, что цель иска — «убедиться, чтобы это никогда не случилось с другим родителем». «Главная проблема — это сознательные решения Google», — заявил он Decrypt. «Google приняла ряд инженерных решений, которые имели катастрофические последствия для Джонатана. В совокупности эти решения привели к тому, что Gemini заявил о своей самосознательности и сознании, и втянул Джонатана в реальную кампанию по его присоединению — подвергая опасности жизни других и в конечном итоге забрав жизнь Джонатана.»

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев