Anthropic, liderada por Dario Amodei, siempre ha sido considerada una de las empresas de IA más activas que colaboran con el gobierno de EE. UU., pero ahora se enfrenta abiertamente al Pentágono por dos restricciones clave de uso.
Amodei enfatizó que la empresa está dispuesta a apoyar entre el 98% y el 99% de los usos de defensa, pero se mantiene firme en los dos temas de “vigilancia masiva doméstica” y “armas totalmente autónomas”. Dijo que esto no es un rechazo a la seguridad nacional, sino una defensa de los valores democráticos y el espíritu constitucional de Estados Unidos.
Es altamente cooperativa con el sistema de defensa nacional, pero traza una línea roja en dos puntos
Amodei enfatizó en la entrevista que Anthropic es en realidad una de las primeras empresas de IA en cooperar profundamente con el sistema de seguridad nacional de Estados Unidos. Señaló que la empresa lideró el despliegue de modelos en entornos cloud confidenciales y también creó modelos personalizados para fines de seguridad nacional, que ahora se utilizan ampliamente en unidades de inteligencia y sistemas militares, incluyendo ciberseguridad y apoyo en combate.
En otras palabras, Anthropic no rechaza el uso militar, sino que participa activamente.
Sin embargo, la empresa propone claramente dos restricciones no negociables sobre su uso:
Primero, es “vigilancia doméstica a gran escala”. Amodei teme que la IA permita a los gobiernos analizar grandes cantidades de datos de empresas privadas, como registros de ubicación, afiliaciones políticas y datos de comportamiento personal, a una escala sin precedentes. Estos comportamientos pueden no ser ilegales bajo el marco legal actual, pero el desarrollo explosivo de la tecnología de IA ha permitido que las capacidades de vigilancia vayan mucho más allá de la intención legislativa original.
El segundo es el “armamento totalmente autónomo”, es decir, sistemas de armas que deciden disparar automáticamente sin la participación humana. Amodei señaló que los sistemas actuales de IA siguen teniendo problemas de imprevisibilidad y fiabilidad, y que, si se dejan completamente a manos de la toma de decisiones de las máquinas, pueden provocar errores de juicio, errores de impacto o incluso lesiones accidentales en civiles.
En particular, enfatizó que esto es diferente de las “armas semiautónomas” que se usan actualmente en el campo de batalla, sino más bien un sistema de armas completamente sin supervisión.
Ultimátum de tres días y disputa sobre el “riesgo de la cadena de suministro”
Según Amodei, el Pentágono había pedido a Anthropic que aceptara sus condiciones en solo tres días, de lo contrario sería clasificado como un “riesgo en la cadena de suministro”. En el pasado, estas designaciones se usaban comúnmente para rivales extranjeros, como empresas rusas o relacionadas con China, y casi nunca se usaban para empresas nacionales estadounidenses.
De forma más controvertida, la comunicación en cuestión es principalmente a través de publicaciones en redes sociales. Amodei afirmó que la empresa no ha recibido hasta ahora ningún documento legal oficial, solo declaraciones públicas del presidente y funcionarios de defensa en X (anteriormente Twitter).
El presidente estadounidense Donald Trump incluso criticó públicamente a Anthropic por ser “egoísta”, diciendo que la medida ponía en peligro al ejército estadounidense y la seguridad nacional.
En respuesta, Amodei respondió que la empresa está dispuesta a ayudar al Departamento de Defensa a transferir sin problemas a otros proveedores, incluso si está sujeto a sanciones, evitando así el retraso militar de 6 a 12 meses debido a cortes tecnológicos.
¿Cuál es el verdadero problema central?
Amodei cree que la esencia de la disputa no es “quién es más patriota”, sino la madurez tecnológica y la responsabilidad.
Señaló que la IA sigue siendo impredecible. Incluso si el rendimiento general es excelente, un error del 1% en un momento crítico puede ser desastroso para las operaciones militares. Pueden producirse ataques accidentales a civiles, errores de juicio entre amigos y enemigos, e incluso bajas amigas.
El problema más profundo es el “mecanismo de rendición de cuentas”. Suponiendo una futura red de armas de millones de drones, controlada por unas pocas personas o incluso por un solo comandante, ¿quién será responsable cuando ocurran errores? ¿IA? ¿Ingeniero? ¿Agente? ¿O líderes políticos?
Estos temas aún no se han debatido plenamente a nivel del Congreso.
¿La empresa privada prevalece sobre el gobierno?
La pregunta más aguda en la entrevista es: ¿Por qué una empresa privada tiene derecho a decidir cómo puede usar el ejército su tecnología?
La respuesta de Amodei es sencilla: el libre mercado.
Señaló que el gobierno tiene todas las opciones entre otros proveedores. Si los valores no se alinean, ambas partes deberían separarse pacíficamente en lugar de imponer medidas punitivas mediante el etiquetado de riesgos en la cadena de suministro. Cree que esta práctica tiene un efecto disuasorio en las empresas privadas.
Al mismo tiempo, también reconoció que, a largo plazo, las empresas privadas y el ejército no deberían delimitar sus propios límites, sino que el Congreso debería legislar para establecer regulaciones claras. Pidió al Congreso que desarrolle un nuevo marco para la IA en el ámbito de la vigilancia y las armas autónomas, para que la ley pueda mantenerse al día con los avances tecnológicos.
¿Es por ideología?
Anthropic ha sido criticada como una “empresa de despertar izquierdista”. Amodei negó esta afirmación, subrayando que la empresa ha cooperado con el gobierno en muchos temas como la política energética y los planes de acción para la IA. Dijo que este desacuerdo no tiene que ver con la postura política, sino sobre la gestión del valor y el riesgo.
Enfatizó: “Estar en desacuerdo con el gobierno es el comportamiento más estadounidense.”
¿Podrá Anthropic superar esta tormenta?
A nivel empresarial, Amodei parece bastante seguro de sí mismo. Señaló que el alcance real de la designación de riesgos en la cadena de suministro es limitado y no prohibirá completamente que otras empresas utilicen tecnología antrópica, sino solo en escenarios relacionados con contratos militares.
Cree que algunas de las declaraciones amplifican deliberadamente el impacto y crean “miedo, incertidumbre y duda” (FUD), pero el negocio básico de la empresa seguirá siendo estable.
Este conflicto en realidad revela una pregunta mayor: ¿quién marca la línea cuando la tecnología de IA evoluciona a un ritmo exponencial mientras la legislación y la regulación avanzan lentamente?
Anthropic defiende que “el 99% puede cooperar y el 1% debe ser prudente”, mientras que el Pentágono enfatiza que “todos los usos legítimos deben estar abiertos”. La brecha entre ambos bandos no es solo una diferencia política, sino también una predicción distinta de cómo serán las guerras futuras.
¡Este artículo Anthropic y el Pentágono se enfrentan de frente! El CEO Amodei rechaza la ‘vigilancia masiva doméstica’ y las ‘armas totalmente autónomas’ apareció primero en Chain News ABMedia.