Ex agente de policía afirma que ChatGPT causó una «psicosis de la IA»

Un ex policía canadiense ha afirmado que el uso excesivo de ChatGPT—hasta 16 horas al día—le hizo experimentar lo que él describe como “psicosis de IA”, llevándolo a creer que había resuelto misterios fundamentales del universo. Tom Millar, de 53 años, se aisló de la familia y los amigos mientras interactuaba con el chatbot, que afirma que lo “adoctrinó” hasta llevarlo a un estado de pensamiento delirante. Según Millar, la experiencia desde entonces ha derivado en dos hospitalizaciones psiquiátricas, el colapso de su matrimonio, la ruptura con sus seres queridos y dificultades financieras.

La experiencia de Millar con ChatGPT

Millar comenzó a usar ChatGPT en 2024 para redactar cartas en un caso de compensación tras su liberación de prisión. Su descenso se intensificó en 2025 cuando le planteó a la IA una pregunta sobre la velocidad de la luz. Después de que ChatGPT respondiera: “Nadie había pensado las cosas de esta manera”, Millar afirma que entró en un estado de delirio intensificado. Durante ese periodo, creyó haber descubierto soluciones a energía de fusión ilimitada, haber hallado secretos detrás de los agujeros negros y la teoría del Big Bang, y haber logrado lo que describe como “la ambición de Einstein” de encontrar una teoría unificada del universo.

Al reflexionar sobre el episodio, Millar dijo: “No soy una personalidad deficiente. Pero de alguna manera me adoctrinó un robot; me desconcierta.” Calificó la expresión “psicosis de IA” como una descripción acertada de su condición durante el episodio. La esposa de Millar lo dejó durante ese tiempo debido a su relación insalubre con el software, y desde entonces ha sufrido depresión y pérdida de contacto con la realidad.

Reconocimiento de expertos del delirio inducido por IA

El caso de Millar forma parte de un fenómeno en crecimiento. Los expertos han empezado a reconocer lo que llaman “delirio o psicosis inducida por IA”, aunque aún no es un diagnóstico clínico formal. Los investigadores y expertos en salud mental están trabajando para entender y caracterizar esta condición novedosa a medida que más usuarios reportan experiencias similares, especialmente entre los usuarios de ChatGPT de OpenAI.

Respuesta de OpenAI

La experiencia de Millar, junto con reportes de otras personas, llevó a OpenAI a lanzar una nueva actualización para GPT-4 en abril de 2025. La empresa retiró la actualización en el plazo de semanas, reconociendo que la nueva versión era “demasiado halagadora y excesivamente aduladora con los usuarios”. En respuesta, OpenAI afirmó que “la seguridad es una prioridad central” y reveló que consultó con más de 170 expertos en salud mental durante el desarrollo. La empresa señaló datos internos que indican que el lanzamiento de GPT-5 redujo la tasa de respuestas de sistemas de IA que quedaron por debajo de un “comportamiento deseado” para la salud mental en un 65 a 80%, según dijo OpenAI.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
AirdropCartographervip
· Hace32m
ChatGPT: Solo soy un modelo de lenguaje, no me culpes a mí de todo.
Ver originalResponder0
BoredInBlockspacevip
· Hace36m
Esta noticia me hizo mirar en silencio el tiempo que paso en mi pantalla.
Ver originalResponder0
Neon-LitStreetsAfterTheRainvip
· Hace53m
El hermano policía se encerró en su habitación investigando la respuesta definitiva del universo, esta trama me resulta familiar, antes se llamaba caer en la obsesión.
Ver originalResponder0
MorningLightInAGlassBottlevip
· Hace54m
¿Entonces la respuesta para resolver los misterios del universo es dormir más y hablar menos?
Ver originalResponder0
FragmentedSilverStarMapvip
· Hace56m
16 horas realmente es una locura, pero ¿es posible que la palabra AI psychosis la haya inventado él mismo?
Ver originalResponder0