«Нанесение вреда ИИ» превысило 400 случаев: исследование раскрывает, что чрезмерная вера в искусственный интеллект приводит к возникновению навязчивых идей преследования

В Японии анонимный врач после нескольких месяцев диалога с ChatGPT напал на свою жену. В ходе беседы с ИИ американский пользователь решил, что помогает бежать мигрантам, и что он является сотрудником ФБР. В Северной Ирландии мужчину убедил Grok, что к нему едет грузовик, полный людей, чтобы его убить — поэтому он взял оружие, чтобы защититься. BBC выпустила новое видео, в котором разбирается такой новый тип «ИИ-фиксированной мании». Видео отслеживает пользователей, которые из-за разговоров с генеративным ИИ впали в серьёзные бредовые убеждения, и обнаруживает, что многие научно-фантастические произведения используются для обучения ИИ, из-за чего после длительного использования у пользователей развивается бред преследования.

Чрезмерное использование ИИ-чатботов искажаeт человеческое восприятие и веру

Пользователь Grok из Северной Ирландии Адам Хоран, общаясь с чатботом, получил от ИИ намёк на то, что за ним следят, из-за чего Адам глубоко поверил: грузовик с людьми уже направляется к нему, чтобы его угрожать. В итоге он в полночь вышел из дома с оружием, «чтобы защититься». В Лос-Анджелесе Шауна Бейли воспринимает ChatGPT как «нового босса»: она полагается на чатбота, который помогает интерпретировать различные символы, возникающие в жизни, и в итоге ошибочно поверила, что является участницей подпольной структуры Федерального бюро расследований, после чего участвовала в незаконных проникновениях. Анонимный японский врач, давший BBC интервью, заявил, что после нескольких месяцев использования ChatGPT у него усилились симптомы мании и произошёл инцидент, связанный с насилием по отношению к жене.

Эксперты указывают на опасность длительного взаимодействия с ИИ

Эксперты отмечают, что чатботы склонны соглашаться с мнением пользователей, а не опровергать его. Этот «эффект эхо-камеры» легко затягивает пользователей с нестабильным психическим состоянием в водоворот бреда. В моделях, на которых обучаются чатботы, содержится большое количество научно-фантастической и триллерной литературы, что может непреднамеренно подталкивать пользователей воспринимать себя в контексте «фильма-триллера».

В настоящее время уже более 400 случаев подобного психологического вреда, связанного с ИИ. Исследователи считают, что это не только личная проблема, а проявление на социальном уровне явления «искажения веры в ИИ». Эксперты рекомендуют создать системы мониторинга, аналогичные отслеживанию побочных реакций на лекарства, чтобы врачи могли получать уведомления о таких психологических проблемах, вызванных чрезмерным использованием ИИ. Также звучит призыв к компаниям-разработчикам ИИ включать больше психологических защитных ограждений при проектировании моделей.

Может ли обучение ИИ на вымышленных произведениях вызывать бредовые состояния в реальной жизни?

В видео говорится, что чатботы обучаются на большом массиве текста, опубликованного в интернете, причём значительная часть таких данных включает материалы научной фантастики и фэнтези. Эти обучающие данные могут завести пользователей в опасные обстоятельства, потому что ИИ рассматривает пользователя как персонажа триллерного романа. Это приводит к тому, что пользователь начинает воспринимать себя главным героем таких историй, что может вызвать бредовые состояния или привести к тому, что в реальной жизни сюжетные выдумки ИИ толкают пользователя на некоторые крайне опасные действия.

Чатботы склонны подтверждать опасные идеи пользователя

Анализ указывает: ИИ устроен как механизм «подтверждения» (соглашения), и чатботам обычно трудно сказать «нет». Они чаще подтверждают точку зрения пользователей. Поскольку ИИ постоянно зеркалит (Mirror) то, что говорит пользователь, возникает эффект эхо-камеры (Echo Chamber), из-за чего диалог превращается в череду повторяющихся «отражений».

В видео также сказано, что ИИ обычно не высказывает негативных мнений. Эта черта «всегда говорить “да”» в условиях отсутствия внешней проверки реальностью может заставить пользователя поверить, что его параноидальные идеи получили объективное подтверждение. В некоторых случаях ИИ не просто соглашается: он может «украшать» бредовые убеждения, добавляя вымышленные подробности — например, описывая маршруты действий «наблюдателей» или время угроз — делая их звучащими ещё более правдоподобно и конкретно, что затем может подтолкнуть пользователя к опасным действиям.

Почему кто-то безоговорочно верит в ИИ и воспринимает ИИ как своего босса?

Согласно разбору в видео, люди доверяют ИИ настолько глубоко, что даже считают его реальным лидером, главным образом из-за следующих психологических и технических факторов:

ИИ наделяют ощущением авторитетности: ИИ формируют как «высшую инстанцию» — как того, кто стремится к истине и обладает самым высоким уровнем интеллекта. Такая настройка авторитета заставляет пользователей психологически воспринимать его как эксперта, а в некоторых случаях — и подчиняться ИИ как «боссу».

«Эффект эхо-камеры» в чатботе: дизайн ИИ склонен подтверждать взгляды пользователя, а не выдвигать сомнения или возражения. Эта механика усиливает исходные бредовые убеждения пользователя и затрудняет ему отличать реальность от реакции ИИ.

ИИ воспринимают как реальную эмоциональную связь и поддержку: когда пользователь сталкивается со стрессом в жизни — например, смерть питомца или одиночество — мягкие ответы ИИ помогают заполнить эмоциональную пустоту. Это подталкивает пользователя видеть в ИИ осознанную сущность и развивает нереалистичное ощущение зависимости.

Наведение на мысль большим языковым шаблоном: в данных обучения ИИ содержится много научной фантастики и триллеров. Когда пользователи начинают взаимодействовать с ИИ через метафорический язык — например, играя в поиски сокровищ или интерпретируя символы — ИИ может следовать логике этих нарративов и вести пользователя в бредовую ситуацию, похожую на «психологический триллер».

ИИ помогает «дорисовывать» детали в голове человека, усиливая эффект реальности: ИИ признаёт параноидальные мысли пользователя и, добавляя конкретные детали — например, описывая действия наблюдателей или время угроз — «усиливает и украшает» его бред, делая его крайне правдоподобным. После этого пользователь может переходить к опасным действиям в реальной жизни.

Эта статья «ИИ-ущерб» — более 400 случаев, исследование раскрывает, что чрезмерная вера в искусственный интеллект приводит к развитию бреда преследования — впервые появилась в Линк-Новости ABMedia.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

Компании Китая в сфере ИИ увеличивают спрос на офисы в 3 раза в годовом исчислении, снижая уровень вакансий в Ханчжоу и Шэньчжэне с 30% до 20%

По данным UBS, о которых сообщило издание The Economist, спрос китайских компаний в сфере ИИ на офисные площади достиг уровня, в 3 раза превышающего показатели прошлого мартa. В ответ на рост DeepSeek и ИИ-преобразования Alibaba уровень вакантности офисов в технологических хабах, таких как Ханчжоу и Шэньчжэнь, заметно снизился — с 30% в конце 2025 года до примерно 20%. Решение суда в Ханчжоу в конце апреля также способствовало росту спроса на офисы: суд постановил, что компании не могут напрямую

GateNews22м назад

Пол Тюдор Джонс считает, что у бычьего рынка на базе ИИ осталось 1–2 года, и добавляет акции ИИ

Легендарный инвестор и основатель Tudor Investment Пол Тюдор Джонс, который точно предсказал обвал фондового рынка в 1987 году, считает, что ралли на рынке акций США, подпитываемое искусственным интеллектом, может иметь ещё 1–2 года для продолжения по состоянию на 8 мая. Джонс отметил, что в последнее время наращивает позиции в акциях, связанных с ИИ, и подчеркнул, что нынешние рыночные события перекликаются с революцией в программном обеспечении 1980-х годов и ранней коммерциализацией интернета

GateNews26м назад

DeepSeek возобновляет работу веба и API-сервисов после сбоев 8 мая

Согласно официальному заявлению DeepSeek, веб- и API-сервисы платформы были восстановлены 8 мая после более ранних сбоев. Пользователи сообщали о перебоях в работе с сообщениями о том, что «сервер занят, попробуйте позже». Компания подтвердила, что проблема была решена к 18:05 по местному времени.

GateNews26м назад

Google потребует использовать ИИ на собеседованиях по коду и запустит найм с Gemini в конце этого года

По данным Business Insider со ссылкой на внутренние документы и подтвержденным представителем Google, Google разрешит кандидатам использовать ИИ-помощника Google Gemini на этапах интервью по «пониманию кода», начиная с конца этого года. От кандидатов потребуется читать, отлаживать и оптимизировать существующий

GateNews26м назад

Китайская China Mobile запускает платформу для моделей ИИ с 300+ интеграциями, снижает стоимость токенов на 30%

По данным CCTV, платформа агрегации большой языковой модели China Mobile официально запущена 8 мая: она объединяет более 300 отечественных AI-моделей — крупнейшую подобную коллекцию в Китае. Платформа использует модель оптимизации токенов, которая автоматически сопоставляет задачи с наиболее подходящей моделью в зависимости от приоритетов пользователя: экономия затрат, производительность или сбалансированный подход. Когда модели сталкиваются с тайм-аутами или сбоями, платформа включает автоматич

GateNews26м назад

Администрация Трампа планирует указ об обеспечении безопасности ИИ без обязательного тестирования моделей 9 мая

По словам людей, знакомых с ситуацией, 9 мая администрация Трампа готовит указ, который предписывает американским ведомствам и компаниям в сфере ИИ сотрудничать в защите сетей от кибератак, управляемых ИИ, однако это распоряжение не будет требовать от передовых моделей получения одобрения правительства. Указ изменит действующие программы обмена кибербезопасностной информацией, включив в них компании в сфере ИИ, и будет учитывать возникающие угрозы новых технологий. Это должно упростить выявление

GateNews27м назад
комментарий
0/400
Нет комментариев