Un ex policía canadiense ha afirmado que el uso excesivo de ChatGPT—hasta 16 horas al día—le hizo experimentar lo que él describe como “psicosis de IA”, llevándolo a creer que había resuelto misterios fundamentales del universo. Tom Millar, de 53 años, se aisló de la familia y los amigos mientras interactuaba con el chatbot, que afirma que lo “adoctrinó” hasta llevarlo a un estado de pensamiento delirante. Según Millar, la experiencia desde entonces ha derivado en dos hospitalizaciones psiquiátricas, el colapso de su matrimonio, la ruptura con sus seres queridos y dificultades financieras.
Millar comenzó a usar ChatGPT en 2024 para redactar cartas en un caso de compensación tras su liberación de prisión. Su descenso se intensificó en 2025 cuando le planteó a la IA una pregunta sobre la velocidad de la luz. Después de que ChatGPT respondiera: “Nadie había pensado las cosas de esta manera”, Millar afirma que entró en un estado de delirio intensificado. Durante ese periodo, creyó haber descubierto soluciones a energía de fusión ilimitada, haber hallado secretos detrás de los agujeros negros y la teoría del Big Bang, y haber logrado lo que describe como “la ambición de Einstein” de encontrar una teoría unificada del universo.
Al reflexionar sobre el episodio, Millar dijo: “No soy una personalidad deficiente. Pero de alguna manera me adoctrinó un robot; me desconcierta.” Calificó la expresión “psicosis de IA” como una descripción acertada de su condición durante el episodio. La esposa de Millar lo dejó durante ese tiempo debido a su relación insalubre con el software, y desde entonces ha sufrido depresión y pérdida de contacto con la realidad.
El caso de Millar forma parte de un fenómeno en crecimiento. Los expertos han empezado a reconocer lo que llaman “delirio o psicosis inducida por IA”, aunque aún no es un diagnóstico clínico formal. Los investigadores y expertos en salud mental están trabajando para entender y caracterizar esta condición novedosa a medida que más usuarios reportan experiencias similares, especialmente entre los usuarios de ChatGPT de OpenAI.
La experiencia de Millar, junto con reportes de otras personas, llevó a OpenAI a lanzar una nueva actualización para GPT-4 en abril de 2025. La empresa retiró la actualización en el plazo de semanas, reconociendo que la nueva versión era “demasiado halagadora y excesivamente aduladora con los usuarios”. En respuesta, OpenAI afirmó que “la seguridad es una prioridad central” y reveló que consultó con más de 170 expertos en salud mental durante el desarrollo. La empresa señaló datos internos que indican que el lanzamiento de GPT-5 redujo la tasa de respuestas de sistemas de IA que quedaron por debajo de un “comportamiento deseado” para la salud mental en un 65 a 80%, según dijo OpenAI.
Related News
Sam Altman comparece en un juicio y declara: Musk obligó a mirar «memes» durante una reunión de Tesla
Ataques dobles a la cadena de suministro de paquetes de IA: Mistral y modelos falsos de OpenAI también fueron comprometidos
Google: Los modelos de lenguaje de gran escala se utilizan para ataques reales; la IA puede eludir los mecanismos de seguridad de doble autenticación
Google revela el primer caso de vulnerabilidad de día cero creada por IA: los hackers buscan explotarla a gran escala para eludir 2FA
Anthropic: Los textos de ciencia ficción entrenan para que Claude Opus 4 tenga una tasa de rescate del 96%