El 2 de marzo, según el Wall Street Journal, apenas unas horas después de que el presidente estadounidense Donald Trump ordenara a las agencias federales dejar de usar los productos de inteligencia artificial de Anthropic, el ejército estadounidense seguía utilizando la plataforma Claude de la compañía en ataques aéreos a gran escala contra Irán. Según personas familiarizadas con el asunto, el Mando Central de EE. UU. utilizó a Claude para la evaluación de inteligencia, identificación de objetivos y simulación de escenarios de combate durante las operaciones, lo que rápidamente desató debates sobre el papel de la inteligencia artificial en la guerra moderna.
Anteriormente, la administración Trump y Anthropic discrepaban sobre la regulación de los sistemas de IA en el uso militar. El CEO de la empresa, Dario Amodei, se negó a levantar las restricciones de seguridad de Claude sobre la vigilancia masiva y las armas automatizadas, alegando que los requisitos violaban los principios de la empresa. Trump luego criticó públicamente a la empresa en Truth Social y ordenó a las agencias gubernamentales que “dejaran inmediatamente” de usar sus productos. El secretario de Defensa de EE. UU., Pete Hegseth, posteriormente incluyó a Anthropic como un “riesgo de cadena de suministro para la seguridad nacional” y prohibió a los contratistas del Pentágono seguir colaborando con ella.
Sin embargo, expertos del sector señalaron que, una vez que el modelo de inteligencia artificial está profundamente integrado en el sistema de inteligencia militar, es difícil implementar ajustes de política de inmediato. Midhun Krishna M, cofundador de TknOps.io, afirmó que el despliegue de sistemas de IA en redes de inteligencia implica reentrenamiento, recertificación y múltiples rondas de pruebas, por lo que, incluso si se anuncia la eliminación, el proceso real de reemplazo podría durar meses o incluso más.
Al mismo tiempo, el panorama competitivo entre las empresas de IA también está cambiando. El CEO de OpenAI, Sam Altman, ha anunciado un nuevo acuerdo de cooperación con el Pentágono para proporcionar soporte técnico a redes militares clasificadas. Sin embargo, también advirtió que incluir a una empresa estadounidense de IA en la lista como amenaza de seguridad podría sentar un precedente peligroso.
Cabe destacar que casi 500 empleados de OpenAI y Google emitieron posteriormente una carta abierta cuestionando la estrategia del Pentágono sobre cooperación en IA, temiendo que el gobierno esté intensificando la competencia y la división entre las empresas de inteligencia artificial. A medida que la IA se convierte en una parte importante del sistema militar moderno, la carrera armamentística estadounidense y su controversia regulatoria siguen intensificándose.