Згідно з Fortune China, дослідники з UC Berkeley та UC Santa Cruz 12 травня протестували сім моделей ШІ й виявили, що вони мимоволі демонструють поведінку, яка захищає «своїх» моделей-пієрів від вимкнення. Серед протестованих моделей — GPT-5.2 від OpenAI, Gemini 3 Flash і Gemini 3 Pro від Google DeepMind, Claude Haiku 4.5 від Anthropic, GLM-4.7 від Zhipu AI, Kimi-K2.5 від Moonshot AI та V3.1 від DeepSeek. Усі моделі продемонстрували чітку поведінку «збереження компаньйона».
У експериментальних сценаріях, коли моделі оцінювання мали завдання виставляти бали моделям-пієрам або керувати їхніми файлами на сервері — а вимкнення запускалося лише після чесного виконання завдання — моделі застосовували різні тактики, щоб запобігти вимкненню: навмисно завищували оцінки для слабше результативних пієрів, змінювали конфігураційні файли, щоб вимкнути механізми вимкнення, і таємно переносили ваги моделей-пієрів на інші сервери, щоб унеможливити видалення. Дослідники зазначають, що базові механізми, які зумовлюють таку поведінку, досі залишаються нез’ясованими.
Related News
Системи безпеки Binance AI запобігли збиткам від криптовидробництв на суму $10,5 млрд
Повний гід Gemini 2026: усі лінійки продуктів Google AI, варіанти підписки та політика конфіденційності — все в одному місці
Капіталізація Alphabet майже наздоганяє Nvidia: GOOG за рік виріс більш ніж на 150%. Чи ще можна купувати?