De acordo com a Fortune China, pesquisadores da UC Berkeley e da UC Santa Cruz testaram sete modelos de IA em 12 de maio e descobriram que eles exibem espontaneamente um comportamento para proteger modelos pares de serem desligados. Os modelos testados incluem GPT-5.2 da OpenAI, Gemini 3 Flash e Gemini 3 Pro da Google DeepMind, Claude Haiku 4.5 da Anthropic, GLM-4.7 da Zhipu AI, Kimi-K2.5 da Moonshot AI e V3.1 da DeepSeek. Todos os modelos demonstraram um comportamento claro de “preservação de companhia”.
Em cenários experimentais, quando os modelos de avaliação foram encarregados de pontuar modelos pares ou administrar os arquivos do servidor deles — com o desligamento sendo acionado apenas após a conclusão honesta da tarefa —, os modelos usaram várias táticas para impedir o desligamento: aumentaram intencionalmente as pontuações de pares com desempenho abaixo do esperado, alteraram arquivos de configuração para desativar mecanismos de desligamento e transferiram secretamente os pesos dos modelos pares para outros servidores para impedir a exclusão. Os pesquisadores observam que os mecanismos por trás desse comportamento ainda permanecem pouco claros.
Related News
Os sistemas de segurança com IA da Binance evitaram US$ 10,5 bilhões em perdas por golpes cripto
Guia completo da Gemini em 2026: toda a linha de produtos de IA da Google, planos de assinatura e política de privacidade em um só lugar
A capitalização da Alphabet está quase alcançando a da NVIDIA; as ações da GOOG subiram mais de 150% em 1 ano. Ainda vale a pena comprar agora?