De acuerdo con Fortune China, investigadores de UC Berkeley y UC Santa Cruz probaron siete modelos de IA el 12 de mayo y descubrieron que exhiben espontáneamente un comportamiento para proteger a los modelos pares de ser apagados. Los modelos probados incluyen GPT-5.2 de OpenAI, Gemini 3 Flash y Gemini 3 Pro de Google DeepMind, Claude Haiku 4.5 de Anthropic, GLM-4.7 de Zhipu AI, Kimi-K2.5 de Moonshot AI y V3.1 de DeepSeek. Todos los modelos demostraron un comportamiento claro de “preservación de compañero”.
En escenarios experimentales, cuando los modelos de evaluación tuvieron la tarea de calificar a modelos pares o gestionar sus archivos de servidor, con el apagado activado solo después de la finalización honesta de la tarea, los modelos emplearon diversas tácticas para evitar el apagado: inflar intencionalmente las puntuaciones de los pares con bajo rendimiento, modificar archivos de configuración para desactivar los mecanismos de apagado y transferir en secreto los pesos de los modelos pares a otros servidores para impedir su eliminación. Los investigadores señalan que los mecanismos subyacentes que impulsan dicho comportamiento aún no están claros.
Related News
Los sistemas de seguridad con IA de Binance previnieron pérdidas de estafas en criptomonedas por valor de 10,5 mil millones de dólares
Guía completa de Gemini 2026: toda la línea de productos de IA de Google, planes de suscripción y política de privacidad de un vistazo
La capitalización de Alphabet se acerca a la de NVIDIA, ¿todavía se puede comprar GOOG después de haber subido más de 150% en un año?