生成的 AI は、最も極端なリスクシナリオにしばしば持ち込まれる。つまり、高度に自律した AI エージェントが制御から逸脱し、ネットワークに接続してハッキング用のツールを使い、最終的に金融システムや計算資源、さらには重要なインフラを掌握するというものだ。だが、ケンブリッジ大学 Cambridge Cybercrime Centre、エディンバラ大学、Strathclyde 大学の研究者らが最新論文で指摘するように、AI がインターネット犯罪に及ぼす本当の脅威を理解するには、このようなSF的な想像はむしろ焦点を外す可能性がある。
地下フォーラムは ChatGPT により関心を持つ——Dark AI をはるかに上回る
この論文の題名は《Stand-Alone Complex or Vibercrime? Exploring the adoption and innovation of GenAI tools, coding assistants, and agents within cybercrime ecosystems》で、Jack Hughes、Ben Collier、Daniel R. Thomas によって執筆され、2026 年 3 月 31 日に arXiv へ投稿された。
著者らは、生成的 AI がサイバー犯罪に与える影響は、「AI が悪意あるプログラムを書けるかどうか」だけで理解してはならないとしている。その代わり、地下ネットワーク犯罪の市場を、ツール提供者、サービス提供者、低スキルのオペレーター、そして小規模な犯罪スタートアップから成る生態系として捉えるべきだと主張する。
論文は、AI の衝撃がネット犯罪に及ぶ上限と下限を表す2つの概念を提示する。高位の状況は Stand-Alone Complex。つまり「crime-gang-in-a-box」だ。成熟した AI エージェントが、従来は複数人の分業を要した cybercrime-as-a-service をパッケージ化し、半自動化されたシステムとして提供することで、単独の行為者でも、犯罪チームでなければ成し遂げられなかった手順を実行できるようにする。
一方で低位の状況は Vibercrime と呼ばれ、vibe coding、coding assistant、チャットボットによって技術的なハードルの一部は下がるものの、ネット犯罪のビジネスモデルや経済構造を実際に作り替えるところまでは至らない、というものだ。
研究チームの結論はかなり直感に反する。現時点で、地下のサイバー犯罪コミュニティが ChatGPT、Claude、Gemini、Cursor、Copilot、WormGPT などのツールに強い関心を示しているのは事実だが、生成的 AI が cybercrime ecosystem を大規模に覆したという証拠は見当たらない。論文は、AI は現状「新しい犯罪の産業革命」を生むというより、既存の犯罪プロセスに取り込まれる一般的な生産性ツールのように働いている、と述べている。
「ハッカー映画」から地下経済へ:ネット犯罪はそもそも小規模なテック企業の集合に近い
論文はまず、ネット犯罪の生態系の進化を振り返る。初期の cybercrime は、少数の高スキル・ハッカーによる実験的な文化に近く、技術の習熟、反権威、創造性を重視していた。しかし 2000 年代以降、ネット犯罪は次第に工業化され、ツール、スクリプト、テンプレート、初期侵入の権限、ボットネットのレンタル、そしてカスタマーサポートの分業まで含む市場になった。これは、いわゆる cybercrime-as-a-service だ。
著者らは、地下のネット犯罪市場は最先端技術を自前で発明することが実は少ないと考えている。真の脆弱性研究、高度な red-team 技術、新型の攻撃手法は、多くの場合、学術研究、資安企業、または政府の安全保障部門から生まれる。地下の犯罪者がより得意なのは、成熟した技術を再梱包すること、合法的な産業のツールを複製すること、そしてビジネスモデルを発展させることであり、さらに退屈でも金になる工程を自動化していくことだ。
だからこそ著者らは、AI の犯罪への本当の影響は「初心者が突然 0-day を書けるようになる」ことではなく、もっと瑣末な部分にある可能性が高いと言う。たとえば自動化されたカスタマーサポート、詐欺コンテンツの生成、言い回しの翻訳、アカウント管理、バックエンド業務の処理、SEO 詐欺の最適化、コミュニティの機械人形運用、あるいは元々高度に自動化されていた低利潤のグレー産業をより効率化することだ。
研究方法:15 年追跡、1 億件超の地下フォーラムとチャットの資料
この論文の重要性は、それが実験室でのテストだけを行ったり、いくつかの資安企業の事例から推論したりするものではない点にある。Cambridge Cybercrime Centre の CrimeBB データセットを用いているのだ。このデータセットは、15 年超・1 億件超の地下フォーラム投稿およびチャットチャンネルの議論をカバーしており、アカウントの乗っ取り、SEO 詐欺、ゲームのチート、不労所得、恋愛詐欺などのテーマが含まれる。
研究チームは artificial intelligence、LLM、GPT、Claude、Gemini、prompt、Copilot、vibe coding、OpenAI、model、generative、machine learning、AI などのキーワードで検索し、最初に 808,526 個の threads を取得した。次に ChatGPT が公開される前の議論を除外し、2022 年 11 月 1 日から 2025 年 12 月 10 日の期間のデータに絞って、最終的に 97,895 個の threads を分析対象として得た。
著者らはさらに、トピックモデル、キーワード追跡、LLM による補助分類、そして人手による質的分析を組み合わせた。注目すべき点として、研究チームも次のように認めている。地下フォーラムの議論をローカルの LLM で分類したところ、精密な分類には信頼性がなかったのだ。モデルが関連ありと判定した投稿の約 80% は確かに AI や vibe coding に関係していたが、具体的な分類はほとんどの場合で誤っていた。
それが、論文内での興味深い傍証になっている。LLM は研究者が「すでに問いとして知っていること」を見つける手助けはできることが多いが、探索ツールとしては明確な限界があるのだ。
地下フォーラムで最も話題なのは ChatGPT。WormGPT は、想像より重要ではない
キーワードのトレンドを見ると、ChatGPT が地下フォーラムで最も頻繁に議論される AI 製品だ。Claude は議論量が安定して成長し、Gemini は Gemini 1.5 のリリース後に顕著に増えている。Grok は数回の短い議論の波が現れた。対照的に Codex の議論量は少なく、WormGPT のような jailbroken model はサイバーセキュリティ系メディアで強く注目されているものの、フォーラムでの議論は継続的な爆発にはつながっていない。
論文は、地下コミュニティにはいわゆる Dark AI に対する文化的な興奮が確かにあると述べている。掲示板には WormGPT、ブラック化版 ChatGPT、無制限モデル、攻撃型 AI ツールなどの広告が出るほか、無料でアクセスする方法を尋ねる人もいる。しかし研究チームは、こうした議論の多くが「どうやってツールを入手するか」「AI が未来にどうやってハッカーの世界を変えるのか」といった想像に留まっており、あるいは「モデルが違法な問題に答えるかどうか」を試す段階で止まり、これらのツールを大量に成功裏に使って犯罪能力を開発している様子は見られない、としている。
さらに重要なのは、研究チームが、新規参入者が Dark AI によって本当に実用的なハッキングスキルを学べたという明確な証拠を見ていない点だ。あるいは、安定して動作する悪意あるツールを生成できたという証拠もない。逆に、フォーラムの一部のユーザーは、こうしたツールが出力するコードが信頼できず、大量の専門知識による修正が必要だと不満を述べている。これは、jailbroken LLM がネット犯罪生態系における重大な技術突破というより、地下文化の一種のパフォーマンスに近いことを示している。
AI は初心者をハッカーにしなかった。むしろ Stack Overflow と cheatsheet の代替のようだ
論文の最も重要な判断の一つは、AI が cybercrime の核心となるスキルのハードルを大きくは下げていないことだ。すでに能力のあるユーザーにとっては、coding assistant は短いコードを書いたり、バグを見つけて直したり、文法を補ったり、一般的なソフトウェア工学の作業を手伝ったりできる。だがこれは、新しい犯罪能力を生み出すというより、Stack Overflow、cheatsheet、Google でエラーメッセージを検索して出てきた情報、あるいは貼り付けたコードをそのまま使うことを代替するのに近い。
低スキルのユーザーにとっては、vibe coding の効用はむしろ限定的だ。理由は単純で、AI が生成したコードが本当に使えるか分からないこともあり、さらに統合・修正・保守のやり方も理解できないからだ。チャットボットで不安定なツールをゼロから作るより、地下フォーラムの初心者は依然として、既成のスクリプト、テンプレート、チュートリアル・パック、あるいは誰かが用意したツールの利用を選ぶ傾向が強い。
言い換えると、AI は「script kiddie」を高級ハッカーに直接アップグレードするわけではない。むしろ、元々コードを書く人の効率を少し高めるようなものだ。これが、著者らが「Vibercriminal の台頭」を心配しても、現状の変化幅を過大評価している可能性があると考える理由にもなっている。
本当に AI によって変わったのは、SEO 詐欺、コミュニティの機械人形、恋愛詐欺
論文は AI による犯罪大爆発のパニック描写を否定しているが、AI に犯罪用途がないと言っているわけではない。研究では、AI の最も目立つ採用の場面は、既にある大規模で低利潤かつ高自動化のグレー産業、つまり SEO 詐欺、コミュニティの機械人形、AI 記事の自動化、コンテンツ農場、そして一部の恋愛詐欺やソーシャルエンジニアリングだと分かった。
これらの場面の共通点は、もともと大量のコンテンツ、大量のアカウント、大量の反復作業、そしてプラットフォームのルールをすり抜けることに強く依存している点にある。生成的 AI は、文章の品質を改善し、翻訳能力を高め、ゴミのような内容のバリエーションを変え、単純なルール検知に引っかかる確率を下げることができる。そして、もともと存在していた自動化プロセスを、より安く、より拡張しやすくする。
そのため、AI がもたらすネット犯罪のリスクは、「AI エージェントが自分でハッカー戦争を始める」ことではなく、より現実的で、より退屈で、かつプラットフォーム経済の本質に近い問題だと考えられる。すなわち、それは既存のグレー産業を、コンテンツ、アカウント、広告、SEO、コミュニティ操作、そして低階層の詐欺において、より簡単にスケールさせるよう作用する。
Stand-Alone Complex はまだ現れていないが、プラットフォームの AI 化は新しい攻撃面を生み得る
高位の状況 Stand-Alone Complex について、著者らは現時点で完全に形を成した証拠は見えていないと考えている。AI エージェントは、ランサムウェア、DDoS、ボットネットの管理、決済(金流)、カスタマーサポート、そしてインフラ操作まで統合して、本当に「犯罪チームを箱詰めにした製品」のような形にはなっていない。だが論文は、この種の未来を完全には否定していない。
著者らは、注意を促している。もしネットのプラットフォーム自体が、この過去 20 年の display ad、検索、ソーシャル流量のパターンから、チャットボットと AI が生成する回答を中心にした新しい構造へと移行するなら、SEO、コンテンツ農場、アカウント農場、ロボット用インフラ、そしてプラットフォームのルール攻防に慣れたグレー産業のプレイヤーは、新たな利益の余地を見つける可能性がある。言い換えれば、AI は地下の犯罪者をよりハイテクにするとは限らないが、合法プラットフォームの経済構造を変え、その結果として犯罪者の裁定(アービトラージ)の位置を変えてしまうかもしれない、ということだ。
これは論文の最も注目すべき発展的な視点でもある。AI がネット犯罪に与える最大の影響は、地下フォーラムが自分たちで何か新技術を発明することではなく、合法の AI 産業がネット全体の流量、コンテンツ、広告、検索、自動化の構造を変えることで、既存のグレー産業が新しい隙間を見つけることにあるかもしれない。
著者の提案:恐慌しないで、しかし低階層の自動化犯罪が拡大する効果を見落とさないで
論文の最後に、政策立案者、産業、法執行機関に向けた提言は、一言に要約できるという。恐慌するな。研究チームは、地下ネットワーク犯罪生態系における AI ツールの採用は、現時点では依然としてバラバラで、段階的で、革命的ではないと考えている。合法なソフトウェア産業における AI coding adoption を、cybercrime business にそのまま当てはめてはいけない。なぜなら、多くの犯罪のビジネスモデルは、実際には高度な技術能力に依存していないからだ。
しかし「恐慌するな」は「リスクがない」ことを意味しない。著者らは、モデルの guardrails、調整(チューニング)、利用時の摩擦(使用の障壁)はなお有効であり、特に低階層・大量・自動化の濫用が起きる場面では、犯罪者のコストを増やし、飽和状態や資源競争によってグレー産業の規模を抑え込めると指摘している。こうした対策では、動機のある高位の攻撃者を止めることはできないが、低コストでの濫用の拡大は抑えられる。
この論文は、「AI ハッカー終末」よりも冷静で、現実的な枠組みを提示している。生成的 AI は現時点で初心者を一夜にしてハッカーに変えていないし、完全自動の犯罪組織も作っていない。むしろ地下の犯罪者も AI-assisted work の時代に連れていくだけのようだ。真の問題は、AI が犯罪者を超人にするかどうかではなく、それが既存のグレー産業、プラットフォームの裁定、コンテンツ自動化、そして低コスト詐欺の限界利益をどう拡大するかにある。
この文章 AI は初心者をハッカーにしなかった!英国の研究:AI は最初からゴミコンテンツや感情詐欺に多く使われている——最初に出現したのは 鏈新聞 ABMedia。