Generative KI wird oft in die extremsten Risiko-Szenarien hineingedacht: Ein hochautonomer KI-Agent entzieht sich der Kontrolle, geht online, nutzt Hacking-Tools und übernimmt schließlich Finanzsysteme, Rechenressourcen und sogar kritische Infrastruktur. Allerdings weisen Forschende vom Cambridge Cybercrime Centre der Universität Cambridge, der Universität Edinburgh und der Universität Strathclyde in einer aktuellen Arbeit darauf hin, dass diese sci-fiartige Vorstellung eher die falschen Schwerpunkte setzen könnte, wenn man die reale Bedrohung von KI für Cyberkriminalität verstehen will.
Tiefgehende Foren interessieren sich mehr für ChatGPT, weit über „Dark AI“ hinaus
Die Arbeit trägt den Titel „Stand-Alone Complex or Vibercrime? Exploring the adoption and innovation of GenAI tools, coding assistants, and agents within cybercrime ecosystems“, verfasst von Jack Hughes, Ben Collier und Daniel R. Thomas, und wurde am 31. März 2026 bei arXiv eingereicht.
Die Autorinnen und Autoren argumentieren, dass der Einfluss von generativer KI auf Cyberkriminalität nicht nur so verstanden werden dürfe, ob „KI bösartigen Code schreiben kann“, sondern dass man den illegalen Cybercrime-Markt als ein Ökosystem betrachten müsse, das aus Tool-Händlern, Dienstleistern, gering qualifizierten Operatoren und kleinen kriminellen Start-ups besteht.
Die Studie bringt zwei Konzepte als obere und untere Grenze für den KI-Schub bei der Cyberkriminalität ein. Das High-End-Szenario heißt Stand-Alone Complex, also „crime-gang-in-a-box“: Ein reifer KI-Agent verpackt Cybercrime-as-a-Service, der bisher eine Aufteilung in mehrere Rollen erfordert hat, in ein halbautomatisiertes System, sodass auch ein einzelner Akteur Abläufe steuern kann, die früher nur kriminelle Teams bewältigen konnten.
Das Low-End-Szenario heißt hingegen Vibercrime. Dabei geht es um „vibe coding“, Coding-Assistant-Tools und Chatbots, die bestimmte technische Hürden senken, aber nicht wirklich Geschäftsmodelle und die wirtschaftliche Struktur der Cyberkriminalität neu gestalten.
Das Fazit des Forschungsteams ist recht unorthodox: Bislang zeigt die Untergrund-Community zwar großes Interesse an Tools wie ChatGPT, Claude, Gemini, Cursor, Copilot, WormGPT usw., aber es gibt keine Hinweise darauf, dass generative KI das cybercrime-Ökosystem bereits großflächig umgekrempelt hat. Die Studie stellt fest, dass KI derzeit eher wie Produktivitätstools in bestehende kriminelle Prozesse „eingesogen“ werde, statt eine neue industrielle Kriminalrevolution zu schaffen.
Zurück von „Hacker-Movies“ zur Untergrund-Ökonomie: Cyberkriminalität ist ohnehin wie eine Handvoll kleiner Tech-Unternehmen
Die Studie blickt zunächst auf die Entwicklung des Cybercrime-Ökosystems zurück. Frühere Formen von Cybercrime ähnelten eher einer Experimentierkultur von wenigen hochqualifizierten Hackern und legten den Fokus auf Technikbeherrschung, Anti-Authority und Kreativität; doch seit den 2000er-Jahren wurde Cybercrime zunehmend industrialisiert: zu einem Markt aus Werkzeugen, Skripten, Vorlagen, anfänglichen Einbruchsbefugnissen, dem Mieten von Botnetzen und Aufgabenteilung mit Kundendienstunterstützung. Das ist das sogenannte cybercrime-as-a-service.
Die Autorinnen und Autoren vertreten die Ansicht, dass der Untergrundmarkt für Cyberkriminalität nur selten die neuesten Technologien selbst erfindet. Echte Schwachstellenforschung, High-End-Red-Team-Techniken und neue Angriffswege kommen größtenteils aus der akademischen Forschung, Sicherheitsfirmen oder staatlichen Sicherheitsbehörden; Untergrundkriminelle sind vor allem darin stark, etablierte Technologien neu zu verpacken, die Werkzeuge der legalen Industrie zu kopieren, Geschäftsmodelle zu entwickeln und die langweiligen, aber profitablen Abläufe zu automatisieren.
Darum glauben die Autorinnen und Autoren, dass der wahre KI-Effekt auf Kriminalität nicht darin liegt, dass „Anfänger plötzlich 0-days schreiben“, sondern in viel kleinteiligeren Bereichen: automatisierter Kundenservice, das Erzeugen von Betrugsinhalten, das Übersetzen von Gesprächsstoff und Formulierungen, das Verwalten von Konten, das Abwickeln von Backend-Prozessen, die Optimierung von SEO-Betrug, der Betrieb von Community-Bots oder die Steigerung der Effizienz in bereits hochautomatisierten, aber niedrigmargigen Graubereichen.
Forschungsmethodik: Verfolgung von 15 Jahren, über 1 Million Fällen aus Untergrundforen und Chatdaten
Die Bedeutung der Arbeit liegt darin, dass sie nicht nur Labortests macht und auch nicht anhand einzelner Fallstudien von ein paar Security-Firmen rückschließt, sondern den CrimeBB-Datensatz des Cambridge Cybercrime Centre nutzt. Dieser Datensatz umfasst über 15 Jahre und über 1 Million Beiträge aus Untergrundforen sowie Diskussionsinhalte in Chatkanälen zu Themen wie Kontoübernahme, SEO-Betrug, Game-Cheating, passives Einkommen und Love-Scams.
Das Forschungsteam suchte zunächst mithilfe von Suchbegriffen wie artificial intelligence, LLM, GPT, Claude, Gemini, prompt, Copilot, vibe coding, OpenAI, model, generative, machine learning und AI. Dabei erhielt es anfangs 808.526 threads. Nach dem Ausschluss von Diskussionen vor der Veröffentlichung von ChatGPT konzentrierte es sich auf Daten zwischen dem 1. November 2022 und dem 10. Dezember 2025 und erhielt schließlich 97.895 threads für die Analyse.
Die Autorinnen und Autoren kombinierten anschließend Themenmodellierung, Keyword-Tracking, LLM-unterstützte Kategorisierung und eine manuelle qualitative Analyse. Bemerkenswert ist: Das Forschungsteam räumte selbst ein, dass bei der lokalen Klassifizierung von Untergrundforen-Diskussionen die LLMs für eine feingranulare Einordnung nicht zuverlässig seien; etwa 80% der von dem Modell als relevant markierten Posts stehen tatsächlich im Zusammenhang mit KI oder vibe coding, aber die konkrete Zuordnung liege nahezu ständig daneben.
Das ist wiederum eine interessante Nebenbeobachtung in der Studie: LLMs helfen Forschenden häufig nur dabei, „das zu finden, was man bereits wissen wollte“, als Erkundungswerkzeug haben sie aber klare Grenzen.
In den Untergrundforen wird am häufigsten über ChatGPT diskutiert, WormGPT ist dagegen nicht so wichtig wie erwartet
Aus der Entwicklung der Keywords geht hervor: ChatGPT ist das KI-Produkt, das in Untergrundforen am häufigsten diskutiert wird. Die Diskussionen zu Claude wachsen stabil; bei Gemini ist nach der Veröffentlichung von Gemini 1.5 ein deutlicher Anstieg zu sehen. Grok taucht hingegen in mehreren kurzen Diskussionswellen auf. Im Vergleich dazu ist die Diskussion zu Codex geringer, und obwohl jailbroken model wie WormGPT in der Security-Presse viel Aufmerksamkeit erhalten, kommt es in den Foren nicht zu einer dauerhaften „Explosion“ der Diskussion.
Die Studie sagt, dass es in den Untergrund-Communities tatsächlich eine kulturelle Begeisterung für das sogenannte Dark AI gibt. In den Foren tauchen Werbeanzeigen für WormGPT, „gecapptes“ ChatGPT (schwärzende Versionen), uneingeschränkte Modelle, offensive KI-Tools usw. auf; außerdem fragen viele Leute nach, wie man diese kostenlos bekommt. Das Forschungsteam fand jedoch, dass sich diese Gespräche meist bei „wie man an das Tool kommt“, „wie die Zukunft der KI die Hacker-Welt verändern könnte“ oder „Tests, ob das Modell auf illegale Fragen antworten will“ bewegen – statt in nennenswerter Anzahl erfolgreicher Nutzung dieser Tools zur Entwicklung von kriminellen Fähigkeiten.
Noch entscheidender: Das Forschungsteam sieht keine klaren Belege dafür, dass Einsteiger durch Dark AI tatsächlich realistisch nutzbare Hacking-Fähigkeiten erlernen, oder dass sie damit stabile Malware generieren könnten. Stattdessen beklagen einige Forennutzer, dass der erzeugte Code aus solchen Tools nicht zuverlässig sei und umfangreiche Fachexpertise zur Korrektur brauche; dadurch wirkt jailbroken LLM eher wie eine Underground-Kultur-Show als wie ein bedeutender technischer Durchbruch im Crime-Ökosystem.
KI macht keine Anfänger zu Hackern – eher verdrängt sie Stack Overflow und Cheatsheet
Eines der wichtigsten Urteile der Arbeit lautet: KI senkt nicht spürbar die zentralen Skill-Hürden für Cybercrime. Für bereits fähige Nutzer kann ein Coding-Assistant helfen, kleine Code-Schnipsel zu schreiben, Fehler zu finden, Syntax zu ergänzen und allgemeine Software-Engineering-Aufgaben zu erledigen; das wirkt eher wie ein Ersatz für Stack Overflow, Cheatsheet, das Copy-Pasten von Code und das Googeln von Fehlermeldungen, nicht aber wie die Schaffung völlig neuer krimineller Fähigkeiten.
Für Nutzer mit geringerem Skill ist der Nutzen von vibe coding hingegen begrenzt. Der Grund ist einfach: Sie wissen nicht unbedingt, ob der von KI erzeugte Code tatsächlich funktioniert, und sie verstehen nicht, wie man ihn integriert, korrigiert und wartet. Anstatt mit einem Chatbot von null an ein instabiles Tool zu schreiben, greifen viele Anfänger in Untergrundforen weiterhin lieber auf vorgefertigte Skripte, Vorlagen, Tutorial-Pakete oder von anderen gebaute Tools zurück.
Mit anderen Worten: KI hat „script kiddies“ bislang nicht direkt zu High-End-Hackern aufgestuft, sondern verbessert eher die Effizienz bei Menschen, die ohnehin programmieren können. Das erklärt auch, warum die Autorinnen und Autoren der Ansicht sind, dass selbst bei Sorge um einen Aufstieg von „Vibercriminal“ die Veränderungsbreite derzeit wahrscheinlich überschätzt wird.
Was KI tatsächlich verändert, sind SEO-Betrug, Community-Bots und Love-Scams
Auch wenn die Studie die Panik-Erzählung eines großen KI-Kriminalitätsausbruchs zurückweist, heißt das nicht, dass KI keine kriminellen Zwecke hätte. Die Forschung zeigt: Die deutlichsten Einsatzszenarien sind eher bereits bestehende großskalige, geringmargige und stark automatisierte Grauprofite, etwa SEO-Betrug, Community-Bots, die Automatisierung von KI-Artikeln, Content-Farmen, Teile von Love-Scams und Social Engineering.
Diese Szenarien haben gemeinsame Merkmale: Sie hängen ohnehin stark von massenhaft Content, massenhaft Konten, massenhaft Wiederholungsarbeit und dem Ausnutzen von Plattform-Regelwerken ab. Generative KI kann die Qualität der Texte verbessern, die Übersetzungsfähigkeit steigern, die Muster von Spam-Inhalten variieren und die Wahrscheinlichkeit verringern, dass sie durch einfache Regel-Detektion erkannt werden. Zudem machen KI-gestützte Automatisierungsprozesse solche Abläufe günstiger und leichter skalierbar.
Das bedeutet: Das Risiko von Cyberkriminalität durch KI könnte weniger darin bestehen, dass „ein KI-Agent selbst einen Hackerkrieg loslässt“, sondern eher in einem realistischeren, langweiligeren und noch näher an der Natur von Plattformökonomie liegenden Problem. KI erleichtert es, bestehende Graubereiche stärker zu skalieren – bei Content, Konten, Werbung, SEO, Community-Betrieb und Low-Level-Betrug.
Stand-Alone Complex ist noch nicht da, aber die Plattform-Automatisierung mit KI könnte neue Angriffsflächen schaffen
Für das High-End-Szenario Stand-Alone Complex glauben die Autorinnen und Autoren, dass bislang noch keine Belege für eine vollständig ausgereifte Form zu sehen sind. Noch hat kein KI-Agent Ransomware, DDoS, Botnet-Management, Zahlungsflüsse, Kundendienst und Infrastruktur-Betrieb in ein wirklich „verpacktes Crime-Team-Produkt“ integriert. Die Studie schließt aber nicht vollständig aus, dass es in Zukunft anders sein könnte.
Die Autorinnen und Autoren warnen: Wenn Plattformen selbst von den bisherigen Display-Ad-, Such- und Community-Traffic-Modellen der vergangenen 20 Jahre zu einer neuen Architektur wechseln, in der Chatbots und KI-generierte Antworten im Zentrum stehen, dann könnten Akteure im Graubereich, die mit SEO, Content-Farmen, Konto-Farmen, Botnetzinfrastruktur und Plattform-Regel-Kampf vertraut sind, neue Profitmöglichkeiten finden. Anders gesagt: KI macht Untergrundkriminelle nicht zwingend „technologischer“, aber sie könnte die wirtschaftliche Struktur legaler Plattformen verändern und damit die Position verändern, an der Kriminelle beim Arbitragegeschäft profitieren.
Das ist auch der am meisten beachtenswerte Erweiterungsaspekt der Studie: Der größte Effekt von KI auf Cyberkriminalität könnte weniger darin liegen, dass Untergrundforen selbst neue Technologien erfinden, sondern darin, dass die legale KI-Industrie die gesamte Struktur von Traffic, Content, Werbung, Suche und Automatisierung verändert – sodass bestehender Graubereich neue Lücken findet.
Empfehlung der Autorinnen und Autoren: Keine Panik – aber die Verstärkungseffekte von Low-Level-Automatisierungsdelikten nicht ignorieren
Zum Schluss verdichten die Empfehlungen der Arbeit für politische Entscheidungsträger, die Industrie und Strafverfolgungsbehörden sich auf einen Satz: Keine Panik. Das Forschungsteam ist der Ansicht, dass die Aufnahme von KI-Tools in der Untergrund-Ökologie der Cyberkriminalität derzeit weiterhin fragmentiert, schrittweise und nicht revolutionär ist. Man könne die KI-Coding-Adoption aus der legalen Softwareindustrie nicht direkt auf cybercrime-Geschäfte übertragen, weil viele kriminelle Geschäftsmodelle tatsächlich nicht auf High-End-Technikfähigkeiten angewiesen seien.
Doch „keine Panik“ heißt nicht „kein Risiko“. Die Autorinnen und Autoren weisen darauf hin, dass Modell-Guardrails, Feintuning und Nutzungshürden weiterhin wirksam sind, insbesondere in Low-Level-, massenhaften und automatisiertem Missbrauch. Dadurch lassen sich die Kosten für Täter erhöhen und über Sättigung sowie Ressourcen-Wettbewerb die Größe des Graubereichs begrenzen. Diese Maßnahmen können motivierte High-End-Angreifer nicht aufhalten, aber sie können die Ausweitung durch kostengünstigen Missbrauch bremsen.
Diese Arbeit liefert einen ruhigeren und realistischeren Rahmen als „KI-Hacker-Untergang“: Generative KI hat bislang keine Anfänger über Nacht zu Hackern gemacht und noch kein vollständig automatisiertes Kriminal-Organisation gebaut; sie ist eher so, als würde man Untergrundkriminelle in das Zeitalter „KI-unterstützter Arbeit“ mit hineinnehmen. Das eigentliche Problem ist nicht, ob KI Kriminelle zu Superhelden macht, sondern wie sie den Grenznutzen für bestehende Graubereiche, Plattform-Arbitrage, Content-Automatisierung und kostengünstige Betrugsmaschen verstärkt.
Dieser Artikel: KI hat Anfänger nicht zu Hackern gemacht! Britische Studie: KI wird am häufigsten für Spam-Content und emotionale Betrügereien genutzt. Erstmals erschienen in Chain News ABMedia.