Брокери впроваджують OpenClaw, що викликає занепокоєння! Чи потрібна Тайваню інструкція з безпеки утримання омарів? Фінансова комісія відповіла

区块客

Автор: Ariel, Крипто Місто

AI-агент з логотипом у вигляді омара (AI Agent) OpenClaw став світовим хітом, уряд Китаю вже запропонував «Посібник з безпеки вирощування омарів» для попередження відповідних ризиків. Народний депутат Лай Шибао зауважив, що вже деякі внутрішні брокери та аналітики фондового ринку поступово впроваджують OpenClaw, і якщо AI-агент зробить помилку при розміщенні замовлення, хто нестиме відповідальність? Він закликав Financial Supervisory Commission (FSC) розробити спеціальний посібник з безпеки для фінансової галузі щодо вирощування омарів.
Пекінська комісія (FSC) у відповідь зазначила, що сама не використовує OpenClaw, але спостерігає за цим явищем, яке є досить поширеним. Внутрішні підрозділи вже досліджують можливі заходи та вивчають ситуацію з використанням у фінансових установах.
Пекінська комісія підкреслила, що раніше вже було опубліковано «Керівництво щодо застосування AI у фінансовій галузі», і що фінансові установи мають відповідні механізми безпеки та внутрішнього контролю для нових технологій; якщо такі інструменти вплинуть на безпеку бізнесу, їх розглядатимуть і розроблятимуть відповідні посібники з безпеки.

Шість ключових пунктів керівництва FSC щодо застосування AI у фінансовій галузі

  • Створення системи управління та відповідальності: фінансові установи повинні нести відповідальність за AI-системи, призначати вищих керівників для контролю та створювати відповідну структуру, впроваджувати управління ризиками та навчання персоналу.
  • Значення справедливості та людського підходу: слід уникати упередженості алгоритмів, що спричиняє несправедливість, відповідно до принципу людського центру; результати генеративного AI мають контролюватися людьми для об’єктивної оцінки ризиків.
  • Захист приватності та прав клієнтів: потрібно захищати приватність і належним чином керувати даними клієнтів; при наданні послуг за допомогою AI слід поважати вибір клієнтів і попереджати про альтернативні варіанти.
  • Забезпечення стабільності та безпеки систем: AI-системи мають бути стабільними та безпечними, щоб уникнути шкоди; при використанні сторонніх AI-систем необхідно здійснювати відповідний менеджмент ризиків і контроль.
  • Прозорість та пояснюваність: AI має працювати прозоро та бути пояснюваним; при безпосередній взаємодії з споживачами слід активно розкривати інформацію.
  • Сприяння сталому розвитку: застосування AI має відповідати принципам сталого розвитку, зменшувати нерівність і захищати навколишнє середовище; також потрібно навчати співробітників для адаптації до змін і захисту їхніх прав.

Джерело зображення: Генеровано AI Gemini | Основні пункти керівництва FSC щодо застосування AI у фінансовій галузі (схематичне зображення AI)

Мінфін вже відповів щодо безпеки вирощування омарів
Щодо проблем безпеки AI-агентів, міністр департаменту цифрових технологій Лін Іцзинґ у той же день під час допиту зазначив, що для вирішення питань безпеки та підвищення технологічної автономії Тайвань активно просуває суверенний AI, щоб гарантувати, що моделі AI, що використовуються урядом і ключовою інфраструктурою, працюють на території країни і під законодавчим контролем.
Він також згадав платформу NemoClaw від Nvidia, яка нещодавно була запущена, і основною метою якої є посилення захисту AI-агентів.
Для створення власних обчислювальних потужностей Тайваню вже отримано заявку від Foxconn на інвестиції у центр обчислювальних ресурсів, а також ведуться переговори з Мінфіном і FSC щодо відкриття фінансування для страхової галузі, щоб уникнути повної залежності тайванських AI-моделей від закордонних.

Що говорить «Посібник з безпеки вирощування омарів» у Китаї?
OpenClaw створений австрійським інженером Петером Штайнбергером, спочатку став популярним у технічних колах, а його встановлення та використання називають «вирощуванням омарів».
Останнім часом цей тренд проник у китайський ринок, і звичайні громадяни почали масово займатися вирощуванням омарів, з’явилися платні послуги з установки для інженерів.
У зв’язку з цим Міністерство державної безпеки Китаю опублікувало посібник з безпеки вирощування омарів, попереджаючи про основні ризики OpenClaw, такі як захоплення контролю над хостом, крадіжка даних і спотворення висловлювань, і закликає користувачів суворо обмежувати операції та запускати його у ізольованому середовищі (наприклад, у віртуальних машинах або пісочницях).

З вирощуванням омарів — до їх зняття
Хоча тренд вирощування омарів активно поширюється, у китайських спільнотах вже з’явилися випадки, коли люди переходять від божевільної установки до платного видалення омарів.
«BBC» з посиланням на експертів повідомляє, що причина цього спаду — високий технологічний поріг і витрати на роботу AI, кожна дія вимагає витрат на виклик моделей.
Крім того, існує значний ризик безпеки: Центр реагування на надзвичайні ситуації в Інтернеті Китаю попереджає, що неправильне використання може призвести до крадіжки конфіденційних даних, таких як фотографії та платіжні рахунки, а також до помилкового видалення даних через неправильне розуміння команд AI.
Для звичайних користувачів наразі цей софт має обмежену функціональність, що сприяє цій хвилі видалення.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів