La IA no convirtió a los principiantes en hackers. Estudio del Reino Unido: la IA se usa más para contenido basura y estafas sentimentales

ChainNewsAbmedia

La IA generativa a menudo se incluye en los guiones de riesgo más extremos: un agente de IA altamente autónomo se sale del control, se conecta a internet, usa herramientas de hackers y, finalmente, se apodera del sistema financiero, los recursos informáticos e incluso de la infraestructura crítica. Sin embargo, investigadores del Cambridge Cybercrime Centre de la Universidad de Cambridge, de la Universidad de Edimburgo y de la Universidad de Strathclyde señalan en un nuevo artículo que, si se quiere entender la amenaza real de la IA para el cibercrimen, esta imaginación de ciencia ficción podría estar enfocando mal el problema.

Los foros clandestinos se interesan más por ChatGPT, mucho más allá de Dark AI

El artículo se titula 《Stand-Alone Complex or Vibercrime? Exploring the adoption and innovation of GenAI tools, coding assistants, and agents within cybercrime ecosystems》, está escrito por Jack Hughes, Ben Collier y Daniel R. Thomas, y fue presentado en arXiv el 31 de marzo de 2026.

Los autores sostienen que el impacto de la IA generativa en el cibercrimen no puede entenderse solo desde la perspectiva de si la IA “puede o no escribir malware”, sino que se debe ver el mercado del crimen en la red clandestina como un ecosistema compuesto por proveedores de herramientas, proveedores de servicios, operadores de baja cualificación y pequeños emprendedores criminales.

El artículo propone dos conceptos como límites superior e inferior del impacto de la IA en el cibercrimen. El escenario de alto nivel se llama Stand-Alone Complex, que equivale a “crime-gang-in-a-box”: agentes de IA maduros empaquetan el cybercrime-as-a-service que antes requería la división del trabajo de varias personas en un sistema semiautomatizado, de modo que un solo actor pueda operar procesos que antes solo podía completar un equipo criminal.

El escenario de baja gama se denomina Vibercrime, que se refiere a vibe coding, coding assistant y chatbots que reducen parcialmente el umbral técnico, pero sin remodelar realmente el modelo de negocio y la estructura económica del cibercrimen.

Las conclusiones del equipo de investigación son bastante contraintuitivas: hasta ahora, la comunidad de cibercrimen clandestina sí muestra un gran interés por herramientas como ChatGPT, Claude, Gemini, Cursor, Copilot y WormGPT, pero no se han visto pruebas de que la IA generativa ya haya trastocado a gran escala el cybercrime ecosystem. El artículo señala que, por ahora, la IA se parece más a una herramienta de productividad absorbida por los procesos del crimen ya existentes, en lugar de crear una nueva revolución industrial delictiva.

Volver del “filme de hackers” a la economía subterránea: el cibercrimen siempre se parecía a un conjunto de pequeñas empresas tecnológicas

El artículo primero repasa la evolución del ecosistema del cibercrimen. Al principio, el cybercrime se parecía más a una cultura experimental de un puñado de hackers de alta cualificación, con énfasis en el dominio técnico, el desafío a la autoridad y la creatividad; pero desde la década de 2000, el cibercrimen se fue industrializando y transformando en un mercado compuesto por herramientas, scripts, plantillas, permisos iniciales de intrusión, alquiler de botnets y división del trabajo con soporte de atención al cliente: es lo que se conoce como cybercrime-as-a-service.

Los autores consideran que el mercado del cibercrimen clandestino realmente rara vez inventa por sí mismo tecnología de vanguardia. La investigación real de vulnerabilidades, las técnicas avanzadas de red teaming y los nuevos métodos de ataque a menudo provienen de la investigación académica, empresas de ciberseguridad o unidades de seguridad gubernamentales; los criminales en la red clandestina, en cambio, son mejores reempaquetando tecnología madura, replicando herramientas de industrias legítimas, desarrollando modelos de negocio y automatizando procesos aburridos pero rentables.

Por eso, los autores creen que el impacto real de la IA en el crimen puede no estar en que “un principiante de repente sepa escribir un 0-day”, sino en lo más rutinario: automatización de atención al cliente, generación de contenido para estafas, traducción de guiones persuasivos, gestión de cuentas, procesamiento de tareas del backoffice, optimización de estafas de SEO, operación de bots de comunidades o hacer más eficiente la gray industry de baja rentabilidad que ya era altamente automatizada.

Método de investigación: seguimiento durante 15 años, más de 1.00 millones de publicaciones y datos de chats en foros clandestinos

La importancia de este artículo es que no se limita a pruebas de laboratorio, ni hace inferencias a partir de casos de unas pocas empresas de ciberseguridad. En cambio, usa el conjunto de datos CrimeBB del Cambridge Cybercrime Centre. Este conjunto abarca más de 15 años y más de 1.00 millones de publicaciones en foros clandestinos y discusiones en canales de chat, incluyendo temas como robo de cuentas, estafas de SEO, trampas en juegos, ingresos pasivos y estafas de romance.

El equipo de investigación buscó con palabras clave como artificial intelligence, LLM, GPT, Claude, Gemini, prompt, Copilot, vibe coding, OpenAI, model, generative, machine learning, AI y obtuvo inicialmente 808.526 hilos (threads); luego, al excluir discusiones anteriores al lanzamiento de ChatGPT, se centró en datos entre el 1 de noviembre de 2022 y el 10 de diciembre de 2025, y finalmente obtuvo 97.895 threads para el análisis.

Los autores combinaron además modelos de temas, seguimiento de palabras clave, clasificación asistida por LLM y análisis manual cualitativo. Es digno de notar que el equipo también admite que, al clasificar discusiones de foros clandestinos usando LLM local, descubrieron que el LLM no es fiable para una clasificación fina; alrededor del 80% de las publicaciones marcadas como relevantes por el modelo sí estaban relacionadas con IA o vibe coding, pero la clasificación concreta casi siempre fallaba.

Esto, de hecho, se convierte en un indicio interesante dentro del artículo: los LLM a menudo solo ayudan a los investigadores a encontrar “lo que ya saben que deben preguntar”, con limitaciones claras como herramienta de exploración.

Los foros clandestinos discuten más sobre ChatGPT; WormGPT, en cambio, no es tan importante como se imaginaba

Según las tendencias de palabras clave, ChatGPT es el producto de IA más discutido en los foros clandestinos; las menciones de Claude crecen de forma constante; Gemini aumenta de manera notable tras el lanzamiento de Gemini 1.5; y Grok aparece en varias tandas de discusiones breves. En comparación, el volumen de discusión sobre Codex es menor, y aunque WormGPT, al igual que otros modelos jailbroken, atrae mucha atención de los medios de ciberseguridad, las conversaciones en los foros no forman una explosión continua.

El artículo señala que la comunidad clandestina sí tiene una emoción cultural por lo que se llama Dark AI. En los foros aparecen anuncios de WormGPT, versiones “black” de ChatGPT, modelos sin restricciones, herramientas de IA de tipo ofensivo, etc., y también mucha gente pregunta cómo acceder a estas herramientas gratis. Sin embargo, el equipo de investigación encontró que estas discusiones se quedan la mayoría del tiempo en “cómo conseguir las herramientas”, “cómo imaginar que la IA cambiará el mundo de los hackers” o “probar si el modelo responde a problemas ilegales”, en lugar de un uso exitoso a gran escala de estas herramientas para desarrollar capacidades delictivas.

Lo más importante es que el equipo de investigación no vio pruebas claras de que los principiantes pudieran aprender habilidades reales de hacking mediante Dark AI, o generar malware que funcione de manera estable. Por el contrario, algunos usuarios de foros se quejan de que el código producido por estas herramientas no es fiable y requiere una gran cantidad de conocimientos profesionales para corregirlo; esto hace que los LLM jailbroken se parezcan más a una representación cultural en la clandestinidad que a un gran avance tecnológico en el ecosistema del cibercrimen.

La IA no convierte a principiantes en hackers; más bien sustituye Stack Overflow y los cheatsheets

Una de las conclusiones más importantes del artículo es que la IA no reduce de forma significativa el umbral de habilidades centrales del cybercrime. Para los usuarios que ya tienen capacidad, los coding assistant pueden ayudar escribiendo pequeños fragmentos de código, revisando errores, completando sintaxis y realizando tareas generales de ingeniería de software; pero esto es más parecido a sustituir Stack Overflow, cheatsheets, la búsqueda en Google de mensajes de error y el copia y pega de código, en vez de crear una capacidad delictiva totalmente nueva.

Para usuarios de baja cualificación, la utilidad de vibe coding es incluso limitada. La razón es simple: puede que no sepan si el código generado por la IA sirve, y tampoco saben cómo integrarlo, corregirlo o mantenerlo. En vez de usar un chatbot para escribir desde cero una herramienta inestable, muchos principiantes en foros clandestinos siguen prefiriendo scripts, plantillas, paquetes de tutoriales o herramientas ya hechas por otros.

Dicho de otro modo, la IA no ha hecho que un “script kiddie” evolucione directamente hacia un hacker avanzado; más bien, parece que mejora un poco la eficiencia de quienes ya sabían programar. Esto también explica por qué los autores creen que incluso si uno teme el auge de “Vibercriminal”, probablemente se está sobreestimando el alcance de los cambios actuales.

Lo que la IA sí está cambiando de verdad: estafas de SEO, bots de redes sociales y estafas de romance

Aunque el artículo refuta el relato del “gran estallido del crimen” impulsado por la IA, no significa que la IA no tenga usos delictivos. La investigación encontró que los escenarios de adopción más evidentes son los ya existentes: gray industry a gran escala, de baja rentabilidad y con alta automatización, como estafas de SEO, bots de redes sociales, automatización de artículos con IA, granjas de contenido, algunas estafas de romance y el uso de ingeniería social.

Estos escenarios comparten que dependen mucho de grandes volúmenes de contenido, grandes cantidades de cuentas, trabajos repetitivos masivos y el arbitraje de reglas de las plataformas. La IA generativa puede mejorar la calidad del texto, aumentar la capacidad de traducción, variar estilos de contenido basura y reducir la probabilidad de detección con reglas simples, además de hacer que los flujos automatizados existentes sean más baratos y más fáciles de escalar.

Por lo tanto, el riesgo delictivo en internet impulsado por la IA puede no ser “una guerra de hackers iniciada por un agente de IA por su cuenta”, sino un problema más realista, más aburrido y más cercano a la esencia de la economía de plataformas: hace más fácil que la gray industry existente escale en contenido, cuentas, publicidad, SEO, operaciones de redes sociales y estafas de bajo nivel.

Stand-Alone Complex aún no aparece, pero la IA en plataformas podría crear nuevas superficies de ataque

Para el escenario de alto nivel Stand-Alone Complex, los autores consideran que aún no se han observado pruebas de que esté completamente formado. Los agentes de IA aún no han integrado ransomware, DDoS, gestión de botnets, pagos, atención al cliente y operaciones de infraestructura en un verdadero “producto tipo caja” para un “equipo criminal”. Pero el artículo tampoco excluye por completo esa posibilidad futura.

Los autores advierten que si las propias plataformas cambian de los modelos de los últimos 20 años basados en display ads, búsquedas y tráfico social hacia una nueva arquitectura centrada en chatbots y respuestas generadas por IA, los actores de la gray industry familiarizados con el SEO, las granjas de contenido, las granjas de cuentas, las infraestructuras de robots y la guerra entre reglas y contramedidas de la plataforma podrían encontrar nuevos espacios de ganancia. En otras palabras, la IA no necesariamente hará a los criminales de la red más tecnológicos, pero podría cambiar la estructura económica de las plataformas legales y, por ende, alterar el punto en que los criminales obtienen ventajas por arbitraje.

Este es también el punto de extensión más digno de atención del artículo: el mayor impacto de la IA en el cibercrimen puede no ser que los foros clandestinos inventen alguna tecnología nueva, sino que la industria legal de IA cambie la estructura completa de tráfico, contenido, publicidad, búsqueda y automatización en internet, haciendo que la gray industry existente encuentre nuevas grietas.

Recomendación del autor: no entrar en pánico, pero no ignorar el efecto amplificador del crimen de baja automatización

Al final, el artículo condensa en una frase el consejo para los responsables de políticas, la industria y las fuerzas del orden: no entre en pánico. El equipo de investigación considera que la adopción de herramientas de IA en el ecosistema del cibercrimen clandestino, por ahora, sigue siendo fragmentaria, gradual y no revolucionaria; no se puede aplicar directamente la adopción de IA en la industria de software legal al negocio del cybercrime, porque muchos modelos de negocio criminales en realidad no dependen de capacidades técnicas avanzadas.

Pero “no entrar en pánico” no significa “no hay riesgos”. Los autores señalan que los guardrails de los modelos, el ajuste y la fricción en el uso siguen siendo efectivos, especialmente en escenarios de abuso de baja categoría, a gran escala y automatizado: pueden aumentar el costo para los criminales y, mediante saturación y competencia por recursos, limitar el tamaño de la gray industry. Estas medidas no impedirán a atacantes avanzados con motivación, pero pueden frenar la expansión del uso indebido de bajo costo.

Este artículo ofrece un marco más frío y realista que “el fin del mundo de los hackers por IA”: la IA generativa todavía no ha hecho que los principiantes se vuelvan hackers de la noche a la mañana, y tampoco ha creado organizaciones criminales totalmente automatizadas; más bien, se parece a llevar a los criminales clandestinos a la era del trabajo asistido por IA. El problema real no es si la IA hará a los criminales “superhéroes”, sino cómo ampliará el beneficio marginal de la gray industry existente, el arbitraje de plataformas, la automatización de contenido y el fraude de bajo costo.

¡Este artículo de IA no convirtió a los principiantes en hackers! Investigación del Reino Unido: la IA se usa más para contenido basura y estafas emocionales. Se publicó por primera vez en Cadena News ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios