La empresa de ciberseguridad Gambit Security publicó un informe que indica que hackers desconocidos utilizaron el chatbot de inteligencia artificial Claude para lanzar ataques cibernéticos contra instituciones gubernamentales en México. El incidente, que comenzó en diciembre del año pasado y duró aproximadamente un mes, provocó la filtración de hasta 150 GB de datos sensibles, incluyendo información de 195 millones de contribuyentes y votantes. Los hackers emplearon comandos específicos para eludir las restricciones de seguridad del modelo de IA, ayudándolo a buscar vulnerabilidades en los sistemas y automatizar la creación de malware. Este evento no solo resalta los desafíos de seguridad informática que enfrentan las agencias gubernamentales en su transformación digital, sino que también ha generado una seria preocupación en el mercado sobre los riesgos potenciales de las herramientas de IA generativa.
Hackers utilizan Claude y ChatGPT para robar millones de datos confidenciales
Según Bloomberg, el ataque logró robar 150 GB de archivos confidenciales, afectando a la Secretaría de Hacienda y Crédito Público de México y a la autoridad electoral nacional, con un total de 195 millones de registros de contribuyentes. Los hackers usaron el chatbot de inteligencia artificial Claude de Anthropic, empleando técnicas de “jailbreak” para disfrazarse de probadores de seguridad que participan en programas de recompensas por encontrar vulnerabilidades, engañando a la IA para que eluda las barreras de seguridad existentes. Cuando el modelo rechazaba comandos maliciosos, los hackers también usaron ChatGPT para obtener instrucciones sobre técnicas de movimiento lateral. Esto demuestra que los nuevos tipos de ataques cibernéticos ya poseen un alto grado de automatización.
Respuesta de las grandes empresas tecnológicas y riesgos de cumplimiento
En respuesta a este incidente, tanto Anthropic como OpenAI afirmaron haber bloqueado las cuentas maliciosas relacionadas y estar investigando el caso. Anthropic indicó que ha incorporado los datos de retroalimentación de este patrón de ataque en su modelo más reciente de Claude, fortaleciendo así los mecanismos de detección y defensa del sistema. Esto refleja que los desarrolladores de IA deben dedicar mayores recursos a prevenir el uso malicioso de sus modelos, además de impulsar la innovación tecnológica. Para los inversores del mercado, la conformidad y seguridad de los modelos de lenguaje a gran escala (LLM) se convertirán en indicadores clave para evaluar la competitividad y los riesgos operativos de las empresas tecnológicas a largo plazo.
Dinámicas en la industria de ciberseguridad y su impacto macroeconómico
El efecto de doble filo de la tecnología de IA está redefiniendo el mercado de la ciberseguridad. A medida que los hackers utilizan la IA para aumentar la eficiencia de sus ataques, la demanda de protección avanzada en ciberseguridad crece rápidamente. Como ejemplo, Gambit Security, una startup israelí de ciberseguridad que reveló este incidente, recientemente obtuvo una financiación de 61 millones de dólares, demostrando que el mercado de capitales tiene una alta expectativa en soluciones defensivas que incorporan tecnologías de caza de amenazas (Threat Hunting) basadas en IA. La economía global, combinada con la digitalización en curso, continuará impulsando un crecimiento estable en los gastos en ciberseguridad, beneficiando a los proveedores de servicios de protección y arquitectura de seguridad.
Este artículo, “¡La IA se convierte en hacker! La filtración de datos confidenciales del gobierno mexicano de más de mil millones de registros”, fue publicado originalmente en Chain News ABMedia.