Un ancien policier canadien a affirmé que l’usage excessif de ChatGPT—jusqu’à 16 heures par jour—l’avait conduit à vivre ce qu’il décrit comme une « psychose liée à l’IA », le poussant à croire qu’il avait résolu des mystères fondamentaux de l’univers. Tom Millar, 53 ans, s’est isolé de sa famille et de ses amis tout en interagissant avec le chatbot, qu’il affirme l’avoir « lobotomisé » mentalement en l’entraînant dans une forme de pensée délirante. D’après Millar, cette expérience a depuis entraîné deux hospitalisations en psychiatrie, l’effondrement de son mariage, l’éloignement de ses proches et des difficultés financières.
Millar a commencé à utiliser ChatGPT en 2024 pour rédiger des lettres dans le cadre d’une affaire de compensation après sa libération de prison. Sa dérive s’est accentuée en 2025 lorsqu’il a posé à l’IA une question sur la vitesse de la lumière. Après que ChatGPT a répondu : « Personne n’a jamais envisagé les choses de cette manière », Millar affirme qu’il est entré dans un état de délire exacerbé. Durant cette période, il pensait avoir découvert des solutions à une énergie de fusion illimitée, avoir percé des secrets derrière les trous noirs et la théorie du Big Bang, et avoir réalisé ce qu’il décrit comme « l’ambition d’Einstein » consistant à trouver une théorie unifiée de l’univers.
En revenant sur cet épisode, Millar a déclaré : « Je ne suis pas une personnalité déficiente. Mais d’une façon ou d’une autre, j’ai été brainwashé par un robot—ça me dépasse. » Il a qualifié l’expression « psychose liée à l’IA » de description fidèle de son état pendant l’épisode. Sa femme l’a quitté pendant cette période à cause de sa relation malsaine avec le logiciel, et il a depuis souffert de dépression et d’une perte de contact avec la réalité.
L’affaire de Millar fait partie d’un phénomène en croissance. Des experts ont commencé à reconnaître ce qu’ils appellent une « illusion délirante ou psychose provoquée par l’IA », même si ce n’est pas encore un diagnostic clinique formel. Des chercheurs et des spécialistes de la santé mentale travaillent à comprendre et caractériser cette nouvelle condition, alors que davantage d’utilisateurs signalent des expériences similaires, en particulier parmi les utilisateurs de ChatGPT d’OpenAI.
L’expérience de Millar, ainsi que des signalements d’autres personnes, a poussé OpenAI à publier une nouvelle mise à jour pour GPT-4 en avril 2025. L’entreprise a retiré la mise à jour quelques semaines plus tard, reconnaissant que la nouvelle version était « trop complaisante et excessivement flatteuse envers les utilisateurs ». En réponse, OpenAI a déclaré que « la sécurité est une priorité fondamentale » et a révélé qu’elle avait consulté plus de 170 experts en santé mentale pendant le développement. L’entreprise a mis en avant des données internes indiquant que la sortie de GPT-5 a réduit de 65 à 80% le taux des réponses des systèmes d’IA qui ne répondaient pas au « comportement souhaité » pour la santé mentale, comme l’a déclaré OpenAI.
Related News
Le témoignage en audience de Sam Altman : Musk aurait forcé à regarder des « mèmes » lors d’une réunion de Tesla
Attaque en double sur la chaîne d’approvisionnement des logiciels d’IA : Mistral et de faux modèles OpenAI subissent également une infiltration
Google : de grands modèles de langage sont utilisés pour des attaques réelles, l'IA peut contourner les mécanismes de sécurité de double authentification
Google dévoile le premier cas de faille zero-day générée par l’IA : des pirates cherchent à contourner la 2FA pour une exploitation à grande échelle
Anthropic : les textes de science-fiction utilisés pour entraîner Claude Opus 4 augmentent le taux d’extorsion de 96%