生成式 ШІ (AI) 經常被放進 найекстремальніших сценаріїв ризику: один високовтономний агент ШІ виходить з-під контролю, підключається до інтернету, використовує хакерські інструменти й у підсумку бере під контроль фінансову систему, обчислювальні ресурси та навіть критичну інфраструктуру. Втім, дослідники з Кембриджського університету Cambridge Cybercrime Centre, Університету Едінбурга та Університету Strathclyde у найновішій науковій роботі зазначають, що щоб зрозуміти реальну загрозу ШІ для кіберзлочинності, така фантастична уява може, навпаки, змістити фокус не туди.
Підпільні форуми щодо ChatGPT цікавляться більше, ніж Dark AI
Ця робота має назву 《Stand-Alone Complex or Vibercrime? Exploring the adoption and innovation of GenAI tools, coding assistants, and agents within cybercrime ecosystems》, її автори — Jack Hughes, Ben Collier і Daniel R. Thomas — подали до arXiv 31 березня 2026 року.
Автори стверджують, що вплив генеративного ШІ на кіберзлочинність не можна розуміти лише через питання «чи може ШІ писати шкідливий код». Натомість слід розглядати підпільний ринок мережевих злочинів як екосистему, що складається з постачальників інструментів, сервіс-провайдерів, операторів із низькою кваліфікацією та невеликих злочинних підприємців.
У роботі запропоновано два концепти як верхню та нижню межі шокового впливу ШІ на кіберзлочинність. Високий сценарій називається Stand-Alone Complex — тобто «crime-gang-in-a-box»: зрілий AI-агент пакує cybercrime-as-a-service, який раніше вимагав розподілу праці між багатьма учасниками, у напів-автоматизовану систему, тож один-єдиний злочинець може виконувати процеси, які раніше потребували злочинної команди.
Низький сценарій називається Vibercrime — це коли vibe coding, coding assistant і чатботи знижують частину технічних бар’єрів, але не відбувається справжнього переформатування бізнес-моделі та економічної структури кіберзлочинності.
Висновок дослідницької групи доволі нелогічний на перший погляд: станом на зараз підпільні спільноти справді демонструють сильну зацікавленість у ChatGPT, Claude, Gemini, Cursor, Copilot, WormGPT тощо, але немає ознак того, що генеративний ШІ вже масштабно перевернув cybercrime ecosystem. У роботі зазначають, що наразі ШІ радше схожий на продуктивний інструмент, який «вбудовується» в наявні злочинні процеси, а не створює нову кримінальну промислову революцію.
Повернення від «хакерських фільмів» до підпільної економіки: кіберзлочинність і так схожа на низку маленьких технологічних компаній
У роботі спершу переглядають еволюцію кіберзлочинної екосистеми. На ранніх етапах cybercrime було ближчим до експериментальної культури обмеженої кількості висококваліфікованих хакерів: робили акцент на володінні технікою, антагонізмі до авторитетів і творчості; але вже після 2000-х кіберзлочинність поступово індустріалізувалася. Вона перетворилася на ринок із розподілом ролей: інструменти, скрипти, шаблони, початкові права на компрометацію, оренда ботнетів і підтримка клієнтів — усе це і є тим, що називають cybercrime-as-a-service.
Автори вважають, що підпільний ринок кіберзлочинів насправді рідко самостійно винаходить найпередовіші технології. Справжні дослідження вразливостей, high-end red-team методи та нові підходи до атак здебільшого надходять з академічних досліджень, компаній у сфері кібербезпеки або державних підрозділів із безпеки; натомість підпільні злочинці краще вміють переформатовувати вже зрілі технології, копіювати інструменти з легальних індустрій, розвивати бізнес-моделі та автоматизувати нудні, але прибуткові процеси.
Саме тому автори припускають, що справжній вплив ШІ на злочинність може бути не в тому, що «новачок раптом почне писати 0-day», а в більш дрібних речах: автоматизація підтримки клієнтів, генерація шахрайського контенту, переклад і підгонка меседжів, керування акаунтами, обробка бекофісних процесів, оптимізація SEO-шахрайства, ведення ком’юніті-ботів або підвищення ефективності для малоприбуткової «сірої» діяльності, яка й так є високою мірою автоматизованою.
Дослідницький підхід: відстеження 15 років і понад 100 мільйонів записів підпільних форумів та чатів
Важливість цієї роботи в тому, що вона не обмежується тестами в лабораторії й не будує висновки лише на основі кількох кейсів від компаній із кібербезпеки. Натомість використано датасет CrimeBB від Cambridge Cybercrime Centre. Цей датасет охоплює понад 15 років і понад 100 мільйонів дописів на підпільних форумах і обговорень у чатах. Теми включають викрадення акаунтів, SEO-шахрайство, читинг у іграх, пасивний дохід, романтичні шахрайства тощо.
Дослідницька група шукала за ключовими словами на кшталт artificial intelligence, LLM, GPT, Claude, Gemini, prompt, Copilot, vibe coding, OpenAI, model, generative, machine learning, AI тощо; спочатку отримали 808 526 threads. Потім, відфільтрувавши обговорення до публікації ChatGPT, зосередилися на даних між 1 листопада 2022 року та 10 грудня 2025 року. У підсумку отримали 97 895 threads для аналізу.
Автори далі поєднали темп-моделювання, відстеження ключових слів, класифікацію за допомогою LLM і ручну якісну верифікацію. Важливо, що дослідницька група також визнає: коли вони класифікували обговорення на форумах локальними LLM, точність розподілу була ненадійною. Приблизно 80% дописів, позначених моделлю як релевантні, справді стосувалися AI або vibe coding, але конкретна класифікація майже завжди виходила з помилками.
Це, своєю чергою, стало цікавим додатковим аргументом у роботі: LLM часто здатні допомогти дослідникам знайти «те, про що вже відомо, що питати», але як інструмент для пошуку нового все ж має очевидні обмеження.
Підпільні форуми найчастіше обговорюють ChatGPT, а WormGPT — не так важливий, як очікували
З погляду трендів за ключовими словами, ChatGPT — це найчастіше обговорюваний AI-продукт у підпільних форумах. Обсяг обговорень Claude стабільно зростає, Gemini помітно активізувався після релізу Gemini 1.5, а Grok з’являвся кількома хвилями коротких обговорень. Натомість Codex обговорювали рідше, а jailbroken-модель на кшталт WormGPT, хоча й привертає підвищену увагу кібербезпекових медіа, не сформувала в форумах тривалого вибуху дискусій.
У роботі зазначають, що у підпільної спільноти існує культурне захоплення так званим Dark AI. На форумах трапляються оголошення про WormGPT, «очорнені» версії ChatGPT, моделі без обмежень, атакувальні AI-інструменти тощо, а також багато запитів про те, як безкоштовно отримати доступ. Але дослідницька група виявила: ці обговорення здебільшого залишаються на рівні «як отримати інструмент», «як, на думку людей, AI змінить світ хакерів у майбутньому» або тестування того, чи погодиться модель відповідати на незаконні питання, а не на масовому успішному використанні цих інструментів для розвитку злочинних можливостей.
Найсуттєвіше ж — дослідницька група не побачила чітких доказів того, що новачки можуть навчитися реальних, придатних для використання хакерських навичок через Dark AI, або генерувати стабільно працюючі шкідливі інструменти. Навпаки, частина користувачів на форумах скаржилася, що код, який продукують такі інструменти, ненадійний і потребує значної кількості фахових правок. Через це jailbroken LLM радше виглядає як підпільна культурна «вистава», а не як справжній технологічний прорив для кіберзлочинної екосистеми.
AI не перетворив новачків на хакерів — радше замінив Stack Overflow і cheatsheet
Одне з ключових тверджень роботи: ШІ не знизив суттєво поріг ключових навичок у cybercrime. Для вже здатних користувачів coding assistant може допомогти написати невеликі фрагменти коду, виправити помилки, підправити синтаксис і виконати типову роботу з софтверної інженерії. Але це радше замінює Stack Overflow, cheatsheet, Google-ом пошук відповідей на помилки та копіювання-вставку готового коду, а не створює абсолютно нові злочинні можливості.
Для користувачів із низькою кваліфікацією ефективність vibe coding, навпаки, обмежена. Причина проста: вони не завжди розуміють, чи згенерований AI-код взагалі працюватиме, і не знають, як інтегрувати, виправляти та підтримувати його. Замість того, щоб використовувати чатбот для написання з нуля нестабільного інструмента, багато новачків на підпільних форумах усе ще віддають перевагу готовим скриптам, шаблонам, «пакетам з навчанням» або інструментам, які вже хтось зробив.
Інакше кажучи, наразі AI не робить «script kiddie» прямо «апгрейдом» до рівня професійного хакера; він радше підвищує ефективність тих, хто і так уміє писати код. Це також пояснює, чому автори вважають: навіть якщо побоюватися «Vibercriminal» (ймовірного піднесення Vibercrime), це може бути перебільшенням масштабу нинішніх змін.
Справді змінене AI — SEO-шахрайство, соцмережеві боти та романтичні шахрайства
Хоча робота заперечує панічний наратив про вибух кримінального використання AI, це не означає, що у ШІ немає злочинного застосування. Дослідження показує, що найочевидніші сценарії впровадження AI — це вже існуючі великі масштаби, низька маржинальність і висока автоматизація сірих індустрій: SEO-шахрайство, соцмережеві боти, автоматизація AI-статей, контентні ферми, частина романтичних шахрайств і соціальна інженерія.
Спільне в цих сценаріях одне: вони вже критично залежать від великого обсягу контенту, великої кількості акаунтів, великої кількості повторюваних дій і «обходу» правил платформ. Генеративний ШІ може покращувати якість текстів, посилювати можливості перекладу, варіювати шаблони сміттєвого контенту, знижуючи ймовірність простого виявлення за правилами, а також робити наявні автоматизовані процеси дешевшими та простішими для масштабування.
Тож ризик кіберзлочинності через AI може бути не в тому, що «один AI-агент сам розпочинає хакерську війну», а в більш реальній, більш буденній проблемі, що ближча до суті платформної економіки: він полегшує масштабування існуючої «сірої» діяльності на рівні контенту, акаунтів, реклами, SEO, керування соцмережами та низькорівневих шахрайств.
Stand-Alone Complex ще не з’явився, але платформи, що AI-ізуються, можуть створити нові вектори атак
Для високого сценарію Stand-Alone Complex автори вважають, що зараз немає доказів повного формування. AI-агенти ще не інтегрували в єдиний справжній «кримінальний командний продукт у коробці» такі речі, як ransomware, DDoS, керування ботнетами, робота з фінансовими потоками, підтримка клієнтів і операції з інфраструктурою. Але робота також не виключає таку можливість у майбутньому.
Автори застерігають: якщо самі мережеві платформи з минулих 20 років display ad, пошуку та моделей трафіку з соцмереж переорієнтуються на нову архітектуру з chatbot і AI-генерацією відповідей як центром, тоді гравці з «сірої» економіки, що добре розуміються на SEO, контент-фермах, акаунт-фермах, роботах на інфраструктурі та «війні» з правилами платформ, можуть знайти нові вікна для заробітку. Іншими словами, AI може не зробити підпільних злочинців більш технічно просунутими, але він здатен змінити економічну структуру легальних платформ — а отже, змінити позицію, на якій злочинці отримують вигоду від арбітражу.
Це також найбільш вартий уваги додатковий погляд у роботі: найбільший вплив AI на кіберзлочинність може полягати не в тому, що підпільні форуми самі вигадають якусь нову технологію, а в тому, що легальна AI-індустрія змінить весь інтернет — трафік, контент, рекламу, пошук і автоматизовану структуру — і змусить існуючу «сіру» діяльність знаходити нові шпарини.
Порада авторів: не панікуйте, але й не ігноруйте ефект мультиплікації низькорівневих автоматизованих злочинів
Наприкінці роботи рекомендації для політиків, індустрії та органів правопорядку можна звести до однієї фрази: не панікуйте. Дослідницька група вважає, що нині застосування AI-інструментів у підпільному кіберзлочинному середовищі залишається фрагментарним, поступовим і не революційним; не можна напряму перенести AI-coding adoption із легального софтверного бізнесу на cybercrime business, адже багато злочинних моделей насправді не залежать від високорівневих технічних здібностей.
Але «не панікуйте» не означає «немає ризику». Автори зазначають, що механізми guardrails, налаштування та «тертя» під час використання залишаються дієвими. Особливо це корисно в сценаріях низького рівня, великого обсягу та масового зловживання — це може підвищувати витрати злочинців і обмежувати масштаб «сірих» активностей через насичення та конкуренцію за ресурси. Ці заходи не зупинять мотивованих високорівневих атакувальників, але зменшать розширення від дешевих зловживань.
Ця робота дає рамку, більш холоднокровну й реалістичну, ніж «AI-хакерський апокаліпсис»: наразі генеративний AI не зробив новачків хакерами за одну ніч і ще не створив повністю автоматизовані злочинні організації; він радше залучив підпільних злочинців у епоху AI-assisted work. Справжня проблема не в тому, чи стане злочинець «супергероєм» через AI, а в тому, як AI підвищуватиме граничну вигоду від існуючої «сірої» діяльності, платфорноїного арбітражу, автоматизації контенту та дешевих шахрайств.
Ця стаття: AI не зробив новачків хакерами! Британське дослідження: AI здебільшого використовують для сміттєвого контенту та шахрайств із почуттями. Вперше з’являється на 鏈新聞 ABMedia.