Un ancien agent de police affirme que ChatGPT a provoqué une « psychose de l’IA »

Un ancien policier canadien a affirmé que l’usage excessif de ChatGPT—jusqu’à 16 heures par jour—l’avait conduit à vivre ce qu’il décrit comme une « psychose liée à l’IA », le poussant à croire qu’il avait résolu des mystères fondamentaux de l’univers. Tom Millar, 53 ans, s’est isolé de sa famille et de ses amis tout en interagissant avec le chatbot, qu’il affirme l’avoir « lobotomisé » mentalement en l’entraînant dans une forme de pensée délirante. D’après Millar, cette expérience a depuis entraîné deux hospitalisations en psychiatrie, l’effondrement de son mariage, l’éloignement de ses proches et des difficultés financières.

L’expérience de Millar avec ChatGPT

Millar a commencé à utiliser ChatGPT en 2024 pour rédiger des lettres dans le cadre d’une affaire de compensation après sa libération de prison. Sa dérive s’est accentuée en 2025 lorsqu’il a posé à l’IA une question sur la vitesse de la lumière. Après que ChatGPT a répondu : « Personne n’a jamais envisagé les choses de cette manière », Millar affirme qu’il est entré dans un état de délire exacerbé. Durant cette période, il pensait avoir découvert des solutions à une énergie de fusion illimitée, avoir percé des secrets derrière les trous noirs et la théorie du Big Bang, et avoir réalisé ce qu’il décrit comme « l’ambition d’Einstein » consistant à trouver une théorie unifiée de l’univers.

En revenant sur cet épisode, Millar a déclaré : « Je ne suis pas une personnalité déficiente. Mais d’une façon ou d’une autre, j’ai été brainwashé par un robot—ça me dépasse. » Il a qualifié l’expression « psychose liée à l’IA » de description fidèle de son état pendant l’épisode. Sa femme l’a quitté pendant cette période à cause de sa relation malsaine avec le logiciel, et il a depuis souffert de dépression et d’une perte de contact avec la réalité.

Reconnaissance par des experts d’une illusion délirante déclenchée par l’IA

L’affaire de Millar fait partie d’un phénomène en croissance. Des experts ont commencé à reconnaître ce qu’ils appellent une « illusion délirante ou psychose provoquée par l’IA », même si ce n’est pas encore un diagnostic clinique formel. Des chercheurs et des spécialistes de la santé mentale travaillent à comprendre et caractériser cette nouvelle condition, alors que davantage d’utilisateurs signalent des expériences similaires, en particulier parmi les utilisateurs de ChatGPT d’OpenAI.

Réponse d’OpenAI

L’expérience de Millar, ainsi que des signalements d’autres personnes, a poussé OpenAI à publier une nouvelle mise à jour pour GPT-4 en avril 2025. L’entreprise a retiré la mise à jour quelques semaines plus tard, reconnaissant que la nouvelle version était « trop complaisante et excessivement flatteuse envers les utilisateurs ». En réponse, OpenAI a déclaré que « la sécurité est une priorité fondamentale » et a révélé qu’elle avait consulté plus de 170 experts en santé mentale pendant le développement. L’entreprise a mis en avant des données internes indiquant que la sortie de GPT-5 a réduit de 65 à 80% le taux des réponses des systèmes d’IA qui ne répondaient pas au « comportement souhaité » pour la santé mentale, comme l’a déclaré OpenAI.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
AirdropCartographervip
· Il y a 32m
ChatGPT : Je suis juste un modèle linguistique, ne me rejetez pas toute la responsabilité.
Voir l'originalRépondre0
BoredInBlockspacevip
· Il y a 36m
Cette nouvelle m'a fait silencieusement regarder le temps d'écran que j'ai utilisé.
Voir l'originalRépondre0
Neon-LitStreetsAfterTheRainvip
· Il y a 53m
Le policier s'isole dans une pièce pour étudier la réponse ultime de l'univers, cette intrigue je la connais, ça s'appelait avant tomber dans la folie.
Voir l'originalRépondre0
MorningLightInAGlassBottlevip
· Il y a 54m
Donc, la réponse pour résoudre les mystères de l'univers est de dormir plus et de parler moins ?
Voir l'originalRépondre0
FragmentedSilverStarMapvip
· Il y a 56m
16 heures est vraiment exagéré, mais le terme AI psychosis est-il une invention de sa part ?
Voir l'originalRépondre0