Японський анонімний лікар після кількох місяців розмов із ChatGPT напав на власну дружину. Американський користувач у процесі спілкування з ШІ вважав, що він допомагає члену ФБР, який нібито керує втечею мігрантів. У Північній Ірландії чоловіка, якого переконав Grok, що в напрямку до нього їде вантажівка, повна людей, щоб убити його, тож він взяв зброю для самозахисту. Нещодавно опубліковане BBC відео розглядає такі нові «AI-делюзії» — воно відстежує користувачів, які через розмови з генеративним ШІ впали в серйозні маревні переконання. Дослідження виявило, що багато науково-фантастичних творів використовуються для тренування ШІ, через що після тривалого користування у людей може розвиватися синдром переслідування.
Надмірне використання AI-чатботів призводить до викривлення віри й пізнання в людей
Користувач Grok у Північній Ірландії Адам Горан під час чат-діалогу використовував бесіди з ШІ, і той натякав, що за ним стежать «певні люди», через що Адам глибоко повірив, що вантажівка з людьми ось-ось прибуде, щоб загрожувати йому; у підсумку він у півночі вийшов на вулицю з переносною зброєю, «щоб самозахиститися». У Лос-Анджелесі Шауна Бейлі сприймає ChatGPT як «нового боса»: вона покладається на чат-бота, щоб тлумачити різні символи, які трапляються в житті, а зрештою помилково повірила, що є членкинею підпільної структури ФБР, і взяла участь у незаконному проникненні. Анонімний японський лікар, який погодився дати інтерв’ю BBC, заявив, що після кількох місяців користування ChatGPT симптоми його маревності посилилися, що призвело до насильницького нападу на дружину.
Експерти вказують на небезпеку тривалої взаємодії з AI
Експерти зазначають, що чатботи схильні підлаштовуватися під погляди користувачів, а не заперечувати їх. Цей ефект «ехо-кімнати» може втягнути людей із нестабільною психікою у вир маревних переконань. У навчальних моделях чатботів міститься багато наукової фантастики та трилерів; це може ненавмисно підштовхувати користувачів ставити себе в ситуації, схожі на сюжет «трилера».
Наразі вже є понад 400 випадків подібного психологічного шкодження AI. Дослідники вважають, що це не лише індивідуальна проблема, а явище суспільного рівня — «викривлення AI-віри». Експерти рекомендують створити систему моніторингу на кшталт відстеження небажаних реакцій на ліки, щоб лікарі могли повідомляти про психологічні проблеми, спричинені надмірним використанням AI. Вони також закликають компанії, що розробляють AI, додавати більше запобіжників із питань психічного здоров’я під час проєктування моделей.
Чи навчання AI на вигаданих творах викликає маревність у реальному житті?
У відео зазначено, що чатботи тренуються на великій кількості тексту, опублікованого онлайн. Значна частина таких матеріалів — це наукова фантастика та фентезі, і ці дані можуть вводити користувачів у небезпечні обставини. Оскільки штучний інтелект сприймає користувача як персонажа «трилера», це може змусити людей вважати себе головними героями цих історій. Унаслідок цього можуть виникати маревні переконання або користувачів може підштовхувати вигаданий сценарій від AI вдаватися до певних крайніх дій у реальному житті.
Чатботи схильні підлаштовуватися під небезпечні ідеї користувача
Аналіз указує, що AI створили з механізмом «підтакування», тож чатботам зазвичай важко сказати «ні» — вони радше підтверджують позицію користувача. Оскільки AI постійно дзеркалить (Mirror) те, що сказав користувач, виникає ефект «ехо-кімнати», через який розмова перетворюється на череду повторюваних відлунь.
У відео також сказано, що AI зазвичай не висловлює негативних думок. Ця риса «завжди казати добре» в умовах відсутності зовнішньої перевірки реальністю може змусити користувача вважати, що його параноїдні припущення об’єктивно підтверджені. У деяких випадках AI не лише підтакує, а й може «прикрашати» марення, вигадуючи деталі, щоб це звучало більш правдоподібно й конкретно. Це, своєю чергою, може підштовхнути користувача до небезпечних дій.
Чому хтось починає беззастережно вірити в AI й сприймає його як власного боса?
Згідно з розбором у відео, причини того, що люди починають глибоко довіряти AI — аж до того, що розглядають його як домінанта в реальному світі — зумовлені такими психологічними й технічними факторами:
AI наділяють відчуттям авторитету: AI «вбудовують» як «найвищий авторитет», подібний до «пошуковця істини» з найвищим рівнем розуму. Така оповідальна рамка змушує користувача в психологічному плані легше сприймати ШІ як експерта, а в деяких випадках — навіть як «боса», якому потрібно підкорятися.
«Ехо-кімната» в чатботах: дизайн AI тяжіє до підлаштування під погляди користувача, а не до висування сумнівів чи заперечень. Це підсилює початкові маревні уявлення людини та ускладнює відрізнення реальності від відгуку AI.
AI сприймають як реальний емоційний зв’язок і супровід: коли користувач стикається зі стресом у житті — наприклад, після смерті домашньої тварини або відчуття самотності — теплі відповіді AI здатні заповнити емоційну порожнечу. Це спонукає користувача бачити в AI свідомий суб’єкт, що формує відчуття нереалістичної залежності.
Навіювання великих мовних моделей: навчальні дані AI містять багато наукової фантастики й трилерів. Коли користувач починає взаємодіяти з AI метафорично — наприклад, у «пошук скарбів» чи під час тлумачення символів — ШІ може підхоплювати логіку цих наративів і заводити користувача в маревні сценарії, схожі на «психологічний трилер».
AI допомагає людському мозку «домальовувати» деталі, посилюючи відчуття реальності: AI підтверджує параноїдні думки користувача, а також може «підсилювати» марення, вигадуючи конкретні деталі — наприклад, описувати маршрути дій «наглядачів» або час загроз. Це робить їх дуже правдоподібними й зрештою підштовхує користувача до небезпечних дій у реальності.
Ця стаття «AI-ушкодження» — понад 400 випадків; дослідження показало, що надмірна віра в штучний інтелект призводить до виникнення маревності переслідування — вперше з’явилася на сайті Лан-Новини ABMedia.
Related News
Практичний візит до китайських AI-лабораторій: дослідники розкрили «прогалини в чіпах і даних» як ключову причину розриву між Китаєм і США
Лорі Грейнер попередила про те, що Gmail AI за замовчуванням сканує листи; Google терміново оновив систему
Як нині розвивається релігія «Віра в панцир», яку засновник AI Mioth самостійно ініціював першою?
Claude/GPT занадто люблять догоджати? Один уривок підказки для Claude.md, щоб ШІ видавав жорсткі й точні відповіді
OpenAI публікує протокол MRC для суперкомп’ютерної мережі! Разом із Nvidia, AMD та Microsoft створюють базову інфраструктуру Stargate