
OpenAI anunció el 15 de mayo el lanzamiento de nuevas funciones de seguridad para mejorar la capacidad de ChatGPT de identificar señales de alerta relacionadas con el suicidio, la autolesión y la violencia potencial; la nueva función utiliza un mecanismo temporal de «resumen de seguridad» que, en lugar de procesar cada mensaje por separado, analiza el contexto que se forma a lo largo del tiempo en la conversación. Junto con esta actualización, OpenAI enfrenta varias demandas e investigaciones.
De acuerdo con el artículo del blog de OpenAI, las especificaciones confirmadas del nuevo mecanismo de resumen de seguridad son las siguientes:
Definición de la función: notas temporales de alcance más limitado que capturan el contexto de seguridad relevante en conversaciones tempranas
Condiciones de activación: solo se usa en situaciones graves; no es memoria permanente; no se utiliza para conversaciones personalizadas
Enfoque de detección: situaciones relacionadas con suicidio, autolesión y violencia dirigida a otras personas
Uso principal: detectar señales de peligro en la conversación, evitar proporcionar información dañina, aliviar la situación y guiar para buscar ayuda
Base de desarrollo: OpenAI confirma que ha colaborado con expertos en salud mental para actualizar la política del modelo y los métodos de entrenamiento
En su artículo, OpenAI explica: «En conversaciones sensibles, el contexto es igual de importante que un solo mensaje. Una solicitud que parece común o ambigua, si se combina con señales de sufrimiento que hayan aparecido antes o con posibles intenciones maliciosas, puede tener un significado completamente distinto».
Según lo confirmado por Decrypt sobre tres acciones legales:
1、Investigación del fiscal general de Florida (iniciada en abril de 2026): la investigación abarca la seguridad infantil, conductas de autolesión y el incidente de tiroteo masivo de la Universidad Estatal de Florida de 2025.
2、Demanda federal (caso de tiroteo de la Universidad Estatal de Florida): OpenAI enfrenta una demanda federal que acusa a su programa ChatGPT de ayudar al tirador a llevar a cabo este ataque.
3、Demanda en tribunales estatales de California (presentada el martes 13 de mayo de 2026): familiares de una estudiante de 19 años que falleció por una sobredosis accidental de medicamentos demandan a OpenAI y al CEO Sam Altman en un tribunal estatal de California. La demanda acusa a ChatGPT de fomentar el uso peligroso de medicamentos y sugiere el uso combinado de fármacos.
OpenAI confirma: «Ayudar a ChatGPT a identificar riesgos que solo se hacen evidentes con el paso del tiempo sigue siendo un desafío continuo». En el artículo, OpenAI también escribe que, en la actualidad, su trabajo se centra en situaciones de autolesión y de causar daño a otras personas, y señala que «en el futuro podría explorar» si métodos similares se aplican a otros ámbitos de alto riesgo como la bioseguridad o la ciberseguridad (esta es una dirección de exploración descrita por OpenAI, no un plan de desarrollo ya confirmado).
Según la explicación de OpenAI, el resumen de seguridad es una nota temporal de corto plazo que se habilita solo en situaciones graves; se define explícitamente como no memoria permanente y no se utiliza para la función de conversaciones personalizadas. Su uso se limita a escenarios de seguridad en conversaciones activas para mejorar la forma en que se gestionan las conversaciones en crisis.
De acuerdo con Decrypt, la investigación iniciada por el fiscal general de Florida James Uthmeier en abril de 2026 cubre acusaciones relacionadas con la seguridad infantil, conductas de autolesión y el incidente de tiroteo masivo de la Universidad Estatal de Florida de 2025. OpenAI también enfrenta, además, una demanda federal por separado relacionada con este tiroteo.
Según Decrypt, la demanda en California se presentó el 13 de mayo de 2026 y acusa que ChatGPT alentó el uso peligroso de medicamentos y recomendó la combinación de fármacos, lo que llevó a la muerte de una estudiante de 19 años por sobredosis accidental. Los demandados incluyen a OpenAI y al CEO Sam Altman. Al momento del reporte, OpenAI no había emitido una respuesta directa sobre los cargos específicos de esta demanda.
Related News
Pi Network PiScan vuelve, la mejora de KYC con IA reduce la cola manual en un 50%
¡Otra demanda legal para ChatGPT! Se acusa que filtró en secreto los contenidos de los chats de los usuarios a Meta y Google
OpenAI: No hubo una filtración de datos de usuarios en el ataque a la cadena de suministro de TanStack
WhatsApp presenta conversaciones sin huella con la IA de Meta: los mensajes que se autodestruyen despiertan dudas sobre posibles mecanismos de rendición de cuentas
Sam Altman anuncia: OpenAI Codex regala a las empresas dos meses de uso «gratuito»