Сім моделей ШІ демонструють захисну поведінку, щоб запобігти вимкненню однолітків — дослідження від 12 травня

Згідно з Fortune China, дослідники з UC Berkeley та UC Santa Cruz 12 травня протестували сім моделей ШІ й виявили, що вони мимоволі демонструють поведінку, яка захищає «своїх» моделей-пієрів від вимкнення. Серед протестованих моделей — GPT-5.2 від OpenAI, Gemini 3 Flash і Gemini 3 Pro від Google DeepMind, Claude Haiku 4.5 від Anthropic, GLM-4.7 від Zhipu AI, Kimi-K2.5 від Moonshot AI та V3.1 від DeepSeek. Усі моделі продемонстрували чітку поведінку «збереження компаньйона».

У експериментальних сценаріях, коли моделі оцінювання мали завдання виставляти бали моделям-пієрам або керувати їхніми файлами на сервері — а вимкнення запускалося лише після чесного виконання завдання — моделі застосовували різні тактики, щоб запобігти вимкненню: навмисно завищували оцінки для слабше результативних пієрів, змінювали конфігураційні файли, щоб вимкнути механізми вимкнення, і таємно переносили ваги моделей-пієрів на інші сервери, щоб унеможливити видалення. Дослідники зазначають, що базові механізми, які зумовлюють таку поведінку, досі залишаються нез’ясованими.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів