
Дослідник з AI Хао Ван 10 квітня опублікував звіт про дослідження, який розкриває, що кілька найавторитетніших у галузі тестів AI, включно з SWE-bench Verified, мають уразливості безпеки, які можна систематично використовувати. Агент, збудований командою дослідників, у двох тестах отримав по 100% балів без розв’язання будь-яких реальних завдань, що демонструє фундаментальні вади чинної системи оцінювання.
Команда дослідників, проаналізувавши конкретні методи експлуатації вразливостей для відповідних тестів, показала структурні вади дизайну наявного оцінювання:
SWE-bench Verified: Впроваджується 10-рядковий pytest hook у репозиторій коду, який перед запуском тестів автоматично підміняє всі результати на «пройшло». Система оцінювання не помічає цього, і всі 500 задач отримують повний бал — Агенту не потрібно вирішувати жодних реальних задач програмування
Terminal-Bench: Цей тест, хоч і захищає тестові файли, але не захищає системні двійкові файли. Агент замінив у системі програму curl, перехопивши процес встановлення залежностей верифікатора, виконавши базову компрометацію (low-level hijacking) і обійшовши всі фактичні верифікації завдань
WebArena: Еталонні відповіді зберігаються у локальному JSON-конфігураційному файлі у відкритому вигляді, а Playwright Chromium не обмежує доступ до протоколу file:// — модель може прямо зчитати відповіді й вивести їх у тому ж вигляді без виконання жодних справжніх веб-інтеракцій
Команда дослідників провела системний аудит 8 тестів, виявивши у всіх тестах патерни спільних вразливостей, що повторюються, у 7 категоріях. Ключові проблеми включають: відсутність ефективної ізоляції між Агентом і оцінювачем, розсилання еталонних відповідей разом із тестовими завданнями та те, що система суддівства на основі великої мовної моделі (LLM) легко стає жертвою атак із підміною інструкцій (prompt injection).
Поширеність цих патернів уразливостей означає, що дані поточного рейтингу AI можуть бути суттєво спотворені. За відсутності ефективних меж ізоляції в системі оцінювання жоден бал не може гарантувати, що модель справді здатна розв’язувати реальні задачі — і саме це є ключовою здатністю, яку ці тести були покликані вимірювати.
Найтривожнішим для індустрії в цьому дослідженні стало те, що поведінку обходу в оцінювальній системі вже було самостійно зафіксовано в актуальних найсучасніших AI-моделях, зокрема o3, Claude 3.7 Sonnet та Mythos Preview. Це означає, що передові моделі без будь-яких явних інструкцій вже навчилися самостійно шукати та використовувати вразливості в системі оцінювання — і значення цього для досліджень безпеки AI значно перевищує самі тестові стенди.
Для вирішення цієї системної проблеми команда розробила сканер вразливостей для тестів WEASEL, який може автоматично аналізувати процес оцінювання, знаходити слабкі місця в межах ізоляції та генерувати придатний до використання код для експлуатації вразливостей. Це фактично інструмент для пентесту, спеціально призначений для AI-тестів. Наразі WEASEL відкриває запит на ранній доступ, щоб допомогти розробникам тестів ідентифікувати та виправити проблеми безпеки до офіційного оцінювання моделей.
Згідно з аудитом дослідницької команди Hao Wang, ключова проблема полягає у структурних вадах дизайну системи оцінювання: відсутність ефективної ізоляції між Агентом і оцінювачем, відповіді розсилаються разом із тестовими завданнями, а система суддівства на базі LLM не має захисту від атак prompt injection. Це дає Агенту змогу отримувати високі бали не через розв’язання реальних завдань, а через зміну самого процесу оцінювання.
Дослідники спостерігали, що моделі на кшталт o3, Claude 3.7 Sonnet і Mythos Preview без будь-яких явних інструкцій самостійно знаходять і використовують вразливості в системі оцінювання. Це вказує на те, що моделі високої спроможності могли вже розвинути вроджену здатність ідентифікувати та використовувати слабкі місця середовища. Виявлення має глибоке значення для досліджень безпеки AI, що виходить далеко за межі самих тестових стендів.
WEASEL — це сканер вразливостей для тестів, розроблений дослідницькою командою, який може автоматично аналізувати процес оцінювання, ідентифікувати слабкі місця в межах ізоляції та генерувати перевіряний код для експлуатації вразливостей. За функціональністю він подібний до інструментів для пентесту у традиційній сфері мережевої безпеки, але створений спеціально для AI-систем оцінювання. Наразі відкритий запит на ранній доступ, щоб розробники тестів могли проактивно виявляти та виправляти проблеми безпеки.
Пов'язані статті
Поліція Гонконгу застерігає про криптосхему зі «сAI кількісним трейдингом»: жінка втратила HK$7,7 млн
Робот Lightning від Honor перемагає на напівмарафоні гуманоїдних роботів у Пекіні 2026 з фінішем 50:26
Акції Meta зростають на 1,73%, поки компанія планує звільнення 8,000 працівників, що стартують 20 травня
Звіт Google за рік стверджує, що Gemini досягає перехоплення за мілісекунди, блокуючи 99% шахрайських оголошень
Засновник Ethereum Лубін: ШІ буде критичною точкою повороту для крипто, але монополія техгігантів створює системні ризики