アメリカで開発されたAIモデルが中国による系統的な蒸留攻撃に直面しているとの報告によると、中国の新興企業は技術を回避してAnthropicのClaude 4.5モデルにアクセスし、非常に似たKimi K2.5モデルを開発している。中国のAIスタートアップは大量の偽アカウントを使ってデータを蒸留し、AI技術を盗んでいるが、現状では防止策が全くない。
中国の新興企業MoonshotはKimi K2.5をリリース
中国の新興企業Moonshot AIはオープンソースの大規模言語モデルKimi K2.5を発表した。リリース当初、そのコーディング能力は先進的なAnthropicのClaude 4.5と同等の技術水準を示し、一部のユーザーは使用中にこのモデルが自らClaudeと名乗る場面を発見し、ロボットの異常行動がソーシャルメディアで大きな話題となった。
Allen Institute for AIの責任者Nathan Lambertは、Kimi K2.5が自己認識の混乱を示す事例を分析し、このモデルがClaudeの出力データを基に訓練・抽出されたことを強く示唆していると述べている。この行為は業界では「蒸留攻撃」(Distillation Attack)と呼ばれ、高度なモデルの出力結果を分析し、その核心ロジックや知的財産を逆算することを目的としている。蒸留は一般的に行われているが、特定の商用モデルから大規模かつ無許可で抽出する行為は問題視されている。
Anthropic、中国のAI新興企業が偽アカウントを使ってClaudeを学習
Anthropicは、DeepSeek、Moonshot AI、MiniMaxの三社が中国のAI技術企業として、24,000以上の偽アカウントを使ってシステムの防護を回避し、Claudeモデルの機能を学習していると明らかにした。これら三社はサードパーティのAPIディストリビューターを通じて、合計1,600万回以上の取引を行っている。中でも、TencentとAlibabaの支援を受けるMoonshot AIは約340万回、MiniMaxは1,300万回の取引を記録し、DeepSeekも15万件以上の記録がある。一部の開発者は、数千万回のインタラクションは現代のAI訓練規模から見れば大きくないと考えるが、業界の専門家は、現在の訓練トレンドが単純なQ&Aから複雑な知能エージェントのワークフローへと移行していることを指摘している。米国の高度なモデルから生成された合成データを用いて自身のモデルの行動を強化することは、中国の研究所にとって重要な最適化手段となっている。このシステム的な機能抽出行為により、長年かけて開発された技術成果が短期間で複製されてしまっている。
米国の軍事構造はAIに高度に依存しており、重要な戦略資産と位置付けられている。国家安全保障の観点から、Anthropicは中国のユーザーにClaudeの商用アクセスを直接提供していないが、この措置だけでは海外の企業が技術情報を取得するのを完全に防げていない。米国企業はAI研究開発やハードウェアに兆ドル規模の投資を行っているが、技術の核心部分が低コストの蒸留手段で盗まれると、研究開発の優位性は大きく損なわれる。もしAIモデルが非同盟国の軍事システムに流入すれば、その潜在的リスクは深刻に考慮されるべきだ。しかし、蒸留は依然としてグレーゾーンにあり、多くの大規模言語モデルは訓練過程で未承認の第三者データを大量に使用している。AIモデルに対する大規模な蒸留攻撃は国家安全保障に関わる脅威だが、解決策はまだ見つかっていない。
この文章は、中国の新興企業MoonshotのロボットがClaudeと名乗り、Anthropicモデルの蒸留を暴露したものである。最初に掲載されたのは鏈新聞ABMedia。