97,895 条地下论坛对话告诉你:黑客社区其实也恨 AI

Эдинбургский университет, Кембриджский университет и университет Strathclyde совместно провели исследование, анализируя 97 895 сообщений на подпольных форумах с 2022 по конец 2025 года, и обнаружили, что ИИ не значительно снизил порог входа для хакеров, а также не оказал существенного влияния на существующие преступные бизнес-модели.
(Предыстория: шифр Морзе обманул Grok, BankrBot мгновенно перевел деньги: хакеры украли 170 тысяч долларов DRB, первая потеря AI-кошелька)
(Дополнительный фон: Трамп требует, чтобы модели ИИ проходили предварительную проверку перед выпуском: Mythos напугал Белый дом, Пентагон возьмет на себя руководство безопасностью)

Содержание статьи

Переключить

  • Война за авторитет на форумах, ИИ — нарушитель равновесия
  • 97 895 диалогов опровергают панические слухи о снижении порога для хакеров с помощью ИИ
  • AI slop — общий враг глобального сообщества

Исследование, охватывающее три года и почти сотню тысяч сообщений на подпольных форумах, пришло к неожиданному для индустрии безопасности выводу: те, кто наиболее ненавидит контент, созданный ИИ, могут быть именно теми, кому вы меньше всего сочувствуете.

Повседневная жизнь хакерских форумов — это не обучение взлому систем, а ругань на тех, кто ленится писать тексты с помощью ИИ. Этот парадоксальный образ возник в результате межведомственного исследования, возглавляемого специалистом по информационной безопасности из Эдинбурга Беном Коллиером, в сотрудничестве с Кембриджским и университетом Strathclyde. Они систематически анализировали диалоги на подпольных форумах с 2022 по 2025 год, объем выборки достиг 97 895 сообщений, пытаясь ответить на один из нерешенных вопросов индустрии: насколько ИИ действительно усилил хакеров?

Война за авторитет на форумах, ИИ — нарушитель равновесия

Чтобы понять, почему хакеры так ненавидят «залипание» в ИИ, нужно сначала понять их сообщество. Подпольные форумы — это не просто черные рынки для обмена украденными данными, это «экономика авторитета» — то есть статус, доверие и влияние участников формируются на основе признания их технических навыков со стороны сверстников.

На форумах есть системы очков, конкурсы статей, культура взаимных оскорблений — по сути, это не отличается от Stack Overflow или GitHub: нужно показывать, что ты действительно разбираешься.

AI slop (большое количество низкокачественного контента, порожденного ИИ) наносит разрушительный урон этой экосистеме, и в легальных платформах он проявляется аналогично. Пользователь форума Hack Forums написал: «Я вижу много людей, которые используют ИИ для написания текстов, и это меня бесит, они даже две фразы сами написать не могут». Другой участник добавил: «Если я хочу пообщаться с ИИ, в интернете полно таких возможностей, я сюда пришел, чтобы взаимодействовать с реальными людьми».

Наблюдения Коллиера выявили структурный противоречие: «Они на самом деле немного противоречат себе в отношении ИИ, потому что он подрывает их утверждение о том, что они — технические мастера». Как только любой новичок сможет выложить профессионально выглядящий урок по тестированию проникновения, авторитет, основанный на редких знаниях, начнет распадаться.

97 895 диалогов опровергают панические слухи о снижении порога для хакеров с помощью ИИ

Ключевое открытие этого исследования — снижение накала в основном дискурсе по информационной безопасности. Выводы однозначны:

«ИИ не значительно снизил порог входа в технические навыки и не оказал существенного влияния на существующие бизнес-модели или практики. Его основной эффект проявляется в уже автоматизированных сферах, таких как SEO-мошенничество, боты в соцсетях и некоторые виды эмоционального мошенничества.»

Иными словами, изменения, вызванные ИИ, касаются именно тех сценариев, где не требуются высокие технические навыки. Мошенники используют ИИ для перевода сообщений, делают социальные атаки более плавными; фермы контента используют ИИ для массового производства текстов; социальные боты — для генерации более естественных ответов. Эти изменения происходят на уровне массовых операций с низким порогом входа, тогда как в области тестирования проникновения, поиска уязвимостей, исследования 0-day — ИИ практически не оставил заметных следов.

Обсуждение новой модели Claude Mythos Preview от компании Anthropic в хакерском сообществе вызвало некоторое волнение среди специалистов по информационной безопасности. Однако исследование Коллиера намекает, что уровень паники может быть преувеличен по сравнению с реальной угрозой.

AI slop — общий враг глобального сообщества

Проблемы, с которыми сталкиваются хакерские форумы и платформы вроде Reddit и технических дискуссионных сайтов, очень похожи: наполнение ИИ-спамом разрушает качество обсуждений, размывает профессиональные сигналы, отпугивает реальных пользователей. Исследование зафиксировало даже снижение трафика на некоторых форумах из-за того, что Google AI-резюме прямо вытесняет поток посетителей.

Это не проблема только преступных сообществ, а структурное давление на всю интернет-экосистему.

Некоторые хакеры не полностью отвергают ИИ: они готовы использовать его для исправления грамматики или структурных ошибок, но глубоко презирают «полностью переписываемые ИИ-автоматически» тексты. Такое отношение практически совпадает с мнением большинства профессиональных сообществ, занимающихся техническим писательством.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить