OpenAI lanzó Codex Security el 6 de marzo, presentando un agente de seguridad de aplicaciones impulsado por inteligencia artificial (IA) que escanea repositorios de Github en busca de vulnerabilidades, apenas unas semanas después de que Anthropic lanzara su rival Claude Code Security, convirtiendo la defensa de código impulsada por IA en el nuevo campo de batalla competitivo de la industria tecnológica.
El lanzamiento se produce en medio de un creciente interés en las herramientas de IA que pueden revisar proyectos de software masivos más rápido de lo que los equipos de seguridad humanos podrían hacerlo. Codex Security está diseñado para analizar repositorios, identificar vulnerabilidades, validarlas en entornos de prueba aislados y proponer soluciones que los desarrolladores puedan revisar antes de aplicar. El sistema construye contexto paso a paso, permitiendo que la IA entienda cómo evoluciona el código en lugar de simplemente señalar fragmentos aislados.
OpenAI escribió:
“Estamos presentando Codex Security. Un agente de seguridad de aplicaciones que te ayuda a proteger tu base de código encontrando vulnerabilidades, validándolas y proponiendo soluciones que puedes revisar y parchear. Ahora, los equipos pueden centrarse en las vulnerabilidades que importan y enviar código más rápido.”
OpenAI afirmó que la herramienta se basa en su ecosistema Codex, un asistente de ingeniería de IA en la nube introducido en mayo de 2025 que ayuda a los desarrolladores a escribir código, corregir errores y proponer solicitudes de extracción. Para marzo de 2026, el uso de Codex había aumentado a aproximadamente 1.6 millones de usuarios semanales, según la compañía. Codex Security extiende esas capacidades a la seguridad de aplicaciones, un segmento de la industria que se estima genera aproximadamente 20 mil millones de dólares anualmente.
El anuncio de OpenAI coincide con el lanzamiento de GPT-5.3 Instant y GPT-5.4. La medida también sigue a la debut de Claude Code Security de Anthropic el 20 de febrero, que escanea bases de código completas y sugiere parches para vulnerabilidades detectadas. Construido sobre el modelo Claude Opus 4.6, la herramienta intenta razonar sobre el software como un investigador de seguridad humano—analizando la lógica empresarial, los flujos de datos y las interacciones del sistema en lugar de depender únicamente de reglas de escaneo estático.
Anthropic afirmó que Claude Code Security ya ha identificado más de 500 vulnerabilidades en proyectos de software de código abierto, incluyendo problemas que habían pasado desapercibidos durante años. La compañía actualmente ofrece la función en una vista previa de investigación para clientes empresariales y de equipo, mientras que los mantenedores de código abierto pueden solicitar acceso acelerado de forma gratuita.
Ambas empresas apuestan a que los sistemas de IA capaces de razonar sobre el contexto del código superarán a los escáneres de vulnerabilidades tradicionales, que a menudo generan grandes volúmenes de falsos positivos. Para abordar ese problema, Claude Code Security utiliza un sistema de verificación en varias etapas que vuelve a comprobar los hallazgos y asigna puntuaciones de severidad y confianza.
Codex Security adopta un enfoque ligeramente diferente. En lugar de confiar únicamente en la inferencia del modelo, el agente valida las vulnerabilidades sospechosas dentro de entornos sandbox antes de mostrar los resultados. OpenAI afirmó que el proceso reduce el ruido y permite que la IA clasifique los hallazgos en función de la evidencia recopilada durante las pruebas.
“Codex Security comenzó como Aardvark, lanzado el año pasado en beta privada,” escribió OpenAI en X. La compañía agregó:
“Desde entonces, hemos mejorado significativamente la calidad de la señal, reduciendo el ruido, mejorando la precisión de la severidad y disminuyendo los falsos positivos, por lo que los hallazgos se alinean mejor con el riesgo del mundo real.”
Los desarrolladores que revisan los resultados de Codex Security pueden examinar los datos de soporte, ver las diferencias en el código para los parches sugeridos e integrar las soluciones a través de flujos de trabajo en Github. El sistema también permite a los equipos personalizar los modelos de amenazas ajustando parámetros como la superficie de ataque, el alcance del repositorio y la tolerancia al riesgo.
Mientras que el lanzamiento de Anthropic sacudió partes del sector de ciberseguridad, la entrada de OpenAI hasta ahora ha generado más conversación que pánico en el mercado. Cuando Claude Code Security debutó en febrero, varias acciones de ciberseguridad cayeron brevemente entre un 5% y un 10%, incluyendo empresas como Crowdstrike y Palo Alto Networks, para luego recuperarse en sesiones de negociación posteriores.
En ese momento, los analistas dijeron que la venta probablemente reflejaba ansiedad sobre si las herramientas de IA podrían reemplazar partes del mercado de seguridad de aplicaciones. Sin embargo, muchos investigadores argumentan que las herramientas de IA son más propensas a complementar las plataformas de seguridad existentes en lugar de reemplazarlas por completo.
La detección de vulnerabilidades asistida por IA ha avanzado rápidamente en los últimos dos años, con grandes modelos de lenguaje (LLMs) participando cada vez más en tareas de investigación en ciberseguridad, como competencias Capture-the-Flag y descubrimiento automatizado de vulnerabilidades. Estas capacidades pueden ayudar a los defensores a identificar las debilidades del software más rápido, pero también generan preocupaciones de que los atacantes puedan explotar sistemas similares.
Para abordar esos riesgos, OpenAI lanzó el 5 de febrero una iniciativa de “Acceso Confiable para Ciberseguridad” que proporciona a investigadores de seguridad verificados acceso controlado a modelos avanzados para investigación defensiva. Anthropic ha adoptado un enfoque similar mediante asociaciones con instituciones como el Laboratorio Nacional del Noroeste del Pacífico y programas internos de equipos rojos.
La aparición de agentes de seguridad de IA marca un cambio hacia lo que muchos investigadores llaman “ciberseguridad agentica,” donde los sistemas autónomos analizan, prueban y remiendan continuamente las vulnerabilidades del software. Si tiene éxito, estas herramientas podrían acortar el tiempo entre el descubrimiento de vulnerabilidades y la implementación de parches, una de las mayores debilidades en la seguridad moderna del software.
Para los desarrolladores y equipos de seguridad, el momento es difícil de ignorar. La IA ya no solo escribe código, ahora también lo audita, lo rompe y lo corrige, a menudo en el mismo flujo de trabajo.
Y con OpenAI y Anthropic compitiendo cara a cara, la próxima ola de herramientas de ciberseguridad puede llegar no como escáneres tradicionales, sino como agentes de IA que nunca duermen, nunca se quejan y, en el mejor de los casos, detectan errores antes que los hackers.