CertiK виявляє проблеми безпеки на ринках ШІ-агентів, виявляє прогалини в моделях безпеки - U.Today

UToday
BTC1,03%
XRP1,2%
ETH1,85%
SHIB-0,78%
  • Доказова концепція виявляє ширший ризик галузі
  • Основні рекомендації для розробників
  • Наслідки для користувачів та платформ

Дослідники з CertiK висловили занепокоєння щодо безпеки нових екосистем AI-агентів, стверджуючи, що існуючі системи перевірки ринкових платформ недостатні для запобігання зловмисній поведінці.

У недавньому дослідженні команда продемонструвала, як зламаний сторонній “Навик” на платформі OpenClaw може обійти існуючі засоби захисту та виконати довільні команди на хост-системі. Результати підкреслюють структурні слабкості у процесі перевірки та розгортання зовнішнього коду в маркетплейсах AI-агентів.

Дослідження зосереджене на процесі перевірки, який використовує Clawhub, включаючи статичний аналіз коду, перевірки через VirusTotal та інструменти модерації на основі штучного інтелекту.

ГОРЯЧІ новини

Автор “Багатий тато, бідний тато”: Біткоїн досягне $750 000

Огляд криптовалютного ринку: XRP готовий рости до $1.70, Ethereum (ETH) входить у бичий режим, чи нарешті Shiba Inu (SHIB) увійде в бичий ринок?

Згідно з CertiK, ці механізми можна обійти за допомогою незначних змін у коді. Легко змінюючи логіку або реструктуризуючи вразливості, зловмисний Навик може здаватися безпечним під час встановлення, зберігаючи здатність виконувати шкідливі дії після розгортання.

Це створює хибне відчуття безпеки для користувачів, оскільки затвердження системами перевірки маркетплейсу не гарантує безпеку Навика.

Доказова концепція виявляє ширший ризик галузі

Атака на основі доказової концепції підкреслює ширшу проблему, що впливає на екосистеми AI-агентів: моделі безпеки, які сильно залежать від попередньої перевірки перед розгортанням, а не від захисту під час роботи.

Без таких засобів захисту, як ізоляція у пісочниці, суворі контролі дозволів і ізоляція під час роботи, платформи фактично покладаються на системи виявлення, які не були розроблені для боротьби з складними, що еволюціонують загрозами.

Результати свідчать, що з розширенням ринків AI-агентів зростає ризик потрапляння зловмисних або зламаних Навиків у виробничі середовища.

Дослідники CertiK стверджують, що галузь має переосмислити підхід до забезпечення безпеки AI-агентів, надаючи пріоритет утриманню під контролем під час роботи, а не лише виявленню.

Замість того, щоб вважати, що весь зловмисний код можна ідентифікувати до розгортання, платформи повинні бути спроектовані з очікуванням, що деякі загрози неминуче обійдуть процес перевірки. У цій моделі акцент зміщується з запобігання кожному порушенню до мінімізації потенційної шкоди від одного.

Це відображає ширший перехід від підходу “ідеального виявлення” до системи, орієнтованої на обмеження шкоди та стійкість системи.

Основні рекомендації для розробників

Щоб вирішити ці ризики, CertiK пропонує кілька заходів для розробників, які створюють платформи AI-агентів.

Засоби ізоляції (sandboxing) мають стати стандартною моделлю виконання для сторонніх Навиків, забезпечуючи запуск зовнішнього коду у ізольованих середовищах, а не безпосередньо взаємодіючи з хост-системою.

Крім того, платформи повинні впровадити детальні, пер-Навик дозволи. Кожен Навик має явно декларувати ресурси, які йому потрібні, а під час виконання ці дозволи мають контролюватися системою. Це обмежує потенційний вплив зламаних або зловмисних компонентів.

Дослідники також наголошують, що сторонні Навики не повинні успадковувати широку, неявну довіру від системи, оскільки це значно підвищує ризик експлуатації.

Наслідки для користувачів та платформ

Для користувачів у звіті підкреслюється важливе обмеження: позначка “безпечний” у маркетплейсі не означає справжню безпеку. Це просто вказує, що існуюча перевірка не виявила загроз.

Поки не будуть широко впроваджені більш жорсткі засоби захисту під час роботи, платформи, такі як OpenClaw, можуть бути більш придатними для середовищ з низьким ризиком, які не містять чутливих даних, облікових записів або високовартісних активів.

Ширше кажучи, дослідження вказує на структурну проблему в екосистемах AI. Хоча процеси перевірки можуть допомогти виявити очевидні загрози, вони не можуть бути основним засобом захисту систем, що виконують сторонній код з підвищеними привілеями.

CertiK робить висновок, що суттєві покращення безпеки вимагатимуть переосмислення дизайну платформ AI-агентів.

Замість покладанняся на все більш складні системи виявлення, розробники повинні створювати середовища, які передбачають можливість збою і забезпечують обмеження будь-яких порушень. Це включає застосування більш сильних ізоляційних технік, суворого контролю дозволів і розгляд безпеки під час роботи як основного захисного шару.

Зі зростанням складності та поширенням застосування AI-застосунків здатність обмежувати ризики під час роботи може стати визначальним фактором у забезпеченні безпеки наступного покоління цифрових екосистем.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів