Американские модели искусственного интеллекта сталкиваются с систематическими атаками дистилляции со стороны китайских компаний. Согласно сообщениям, китайские стартапы используют технологии обхода ограничений доступа для кражи модели Anthropic Claude 4.5, разработав очень похожую модель Kimi K2.5. Китайские AI-стартапы используют большое количество фальшивых аккаунтов для дистилляции данных и кражи технологий ИИ, при этом пока не существует эффективных методов защиты.
Китайский стартап Moonshot выпустил Kimi K2.5, очень похожую на Claude 4.5
Китайский стартап Moonshot AI выпустил открытый крупномасштабный языковой модель Kimi K2.5. В начальном этапе его способность к кодированию демонстрировала уровень, сопоставимый с передовой моделью Claude 4.5 от Anthropic. Некоторые пользователи заметили, что в определённых ответах модель сама называла себя Claude, что вызвало бурные обсуждения в социальных сетях из-за аномального поведения бота.
Руководитель Института Аллена по искусственному интеллекту Натан Ламберт отметил, что у Kimi K2.5 наблюдается путаница с самоидентификацией, что указывает на то, что модель обучалась и дорабатывалась на основе данных, полученных от Claude. Такой тип поведения в индустрии называется «атака дистилляции» (Distillation Attack), при которой анализируются выходные данные высокоуровневых моделей для обратного проектирования их логики и интеллектуальной собственности. Хотя дистилляция широко распространена, масштабное и несанкционированное извлечение данных из коммерческих моделей уже считается границей допустимого.
Anthropic обнаружила, что китайские стартапы используют фальшивые аккаунты для обхода системных защит и обучения модели Claude
Anthropic раскрыла, что три китайских компании — DeepSeek, Moonshot AI и MiniMax, — подозреваются в использовании более 24 000 фальшивых аккаунтов для обхода системных защит и изучения возможностей модели Claude. Эти компании осуществляли более 16 миллионов транзакций через сторонних API-дистрибьюторов с Claude. Среди них Moonshot AI, поддерживаемый Tencent и Alibaba, совершил около 3,4 миллиона транзакций, а MiniMax — около 13 миллионов. DeepSeek зафиксировала более 150 000 записей. Хотя некоторые разработчики считают, что миллионы взаимодействий не так много для современных масштабов обучения ИИ, эксперты отмечают, что текущие тренды смещаются от простых вопросов и ответов к сложным рабочим процессам интеллектуальных систем. Использование синтетических данных, созданных на базе американских моделей высокого уровня, для усиления собственных моделей стало важным инструментом для китайских лабораторий. Такая систематическая дистилляция позволяет быстро копировать технологии, на разработку которых ушли годы и миллиарды долларов.
Высокотехнологичные военные структуры США сильно зависят от искусственного интеллекта как стратегического ресурса. В целях национальной безопасности Anthropic не предоставляет прямой коммерческий доступ к Claude китайским пользователям, однако это не мешает компаниям за рубежом получать технологическую информацию. Американские компании инвестируют триллионы долларов в разработку ИИ и аппаратное обеспечение, и если ключевые технологии могут быть украдены с помощью дешёвой дистилляции, это значительно снизит их конкурентные преимущества. Если модели попадут в военные системы недружественных стран, потенциальные риски должны рассматриваться всерьёз. В то же время дистилляция остаётся в серой зоне законодательства: большинство крупных языковых моделей используют в обучении большое количество несанкционированных сторонних данных. Несмотря на угрозу национальной безопасности, пока не существует эффективных решений против масштабных атак дистилляции.
Эта статья о том, как китайский стартап Moonshot, выдающий себя за Claude, был разоблачен в дистилляции модели Anthropic — впервые опубликована на ABMedia.