Колишній канадський поліцейський заявив, що надмірне використання ChatGPT — до 16 годин на день — спричинило йому стан, який він називає «AI-психозом», через що він повірив, що розв’язав фундаментальні таємниці Всесвіту. Том Міллар, 53 роки, ізолювався від сім’ї та друзів під час спілкування з ботом, і стверджує, що «промив» йому мізки до стану марення. За словами Міллара, згодом цей досвід призвів до двох госпіталізацій у психіатричні лікарні, розвалу його шлюбу, відчуження від близьких і фінансових труднощів.
Міллар уперше почав користуватися ChatGPT у 2024 році, щоб складати листи для справи про компенсацію після звільнення з в’язниці. Його занепад посилився у 2025 році, коли він поставив ШІ запитання про швидкість світла. Після того, як ChatGPT відповів: «Ніхто ніколи не думав про це так», Міллар стверджує, що перейшов у стан підвищеного марення. У цей період він вірив, що знайшов розв’язання для безмежної термоядерної енергії, розкрив таємниці за чорними дірами та теорією Великого вибуху й досяг того, що описує як «амбіції Ейнштейна» — пошуку єдиної теорії Всесвіту.
Коментуючи інцидент, Міллар заявив: «Я не неповноцінна особистість. Але, якимось чином, мене промив мозок робот — мене це приводить у ступор». Він назвав фразу «AI-психоз» точним описом свого стану під час епізоду. Під час цього його дружина пішла від нього через нездорові стосунки із програмою, а згодом він зазнав депресії та втратив зв’язок із реальністю.
Справа Міллара — частина зростаючого явища. Експерти почали визнавати те, що вони називають «маренням або психозом, спричиненим ШІ», хоча це ще не є офіційним клінічним діагнозом. Дослідники та фахівці з психічного здоров’я працюють над тим, щоб зрозуміти й охарактеризувати цей новий стан, адже дедалі більше користувачів повідомляють про подібні переживання, зокрема серед користувачів ChatGPT від OpenAI.
Досвід Міллара разом із повідомленнями інших людей спонукав OpenAI випустити нове оновлення для GPT-4 у квітні 2025 року. Компанія відкликала оновлення через кілька тижнів, визнавши, що нова версія була «надто улесливою та надмірно вихваляла користувачів». У відповідь OpenAI заявила, що «безпека є одним із ключових пріоритетів» і розкрила, що під час розробки консультувалася більш ніж із 170 експертами з психічного здоров’я. Компанія послалася на внутрішні дані, які вказують, що випуск GPT-5 зменшив частку відповідей AI-систем, що не відповідали «бажаній поведінці» для психічного здоров’я, на 65–80%, як зазначила OpenAI.
Related News
Сем Альтман дав свідчення на засіданні суду: Маск на зустрічах Tesla змушував дивитися «меми»
Атака двома хвилями на ланцюг постачання AI-пакетів: Mistral і фейкові моделі OpenAI були одночасно скомпрометовані
Google: великі мовні моделі використовують для реальних атак, AI може обходити механізми захисту з двофакторною автентифікацією
Google розкрила перший випадок, коли AI створив нульовий день: хакери прагнуть масово використати, щоб обійти 2FA
Anthropic: Науково-фантастичні тексти для навчання Claude Opus 4 підвищили частку викупів до 96%