El CEO de la compañía de IA Anthropic, Dario Amodei, ha respondido al Departamento de Defensa y a la Casa Blanca después de que los contratistas de defensa que trabajan con el Departamento de Defensa de EE. UU. fueran instruidos a dejar de usar los productos de Anthropic.
En una entrevista con CBS News el sábado, Amodei afirmó que Anthropic se opone al uso de sus modelos de IA para vigilancia masiva en el país y al desarrollo de armas completamente automáticas que puedan disparar sin intervención humana.
Él enfatizó que Anthropic está de acuerdo con la mayoría de las propuestas del gobierno de EE. UU. sobre el uso de IA, excepto en esas dos áreas. Según Amodei, estos son temas fundamentales para los estadounidenses, incluyendo el derecho a no ser vigilados por el gobierno y el derecho de los militares a tomar decisiones relacionadas con la guerra sin ceder todo el control a las máquinas.
Anteriormente, el Departamento de Defensa de EE. UU. etiquetó a Anthropic como “riesgo en la cadena de suministro”, lo que significa que los contratistas militares no pueden usar los productos de la compañía en contratos de defensa. Amodei calificó esta medida como “sin precedentes” y de carácter “punitivo”.
Sin embargo, el CEO de Anthropic también aclaró que no está completamente en contra del desarrollo de armas automáticas en el futuro, especialmente si otros países comienzan a implementar esta tecnología. Según él, el problema actual es que la IA aún no es lo suficientemente confiable para operar de manera completamente autónoma en entornos militares.
Amodei afirmó que el marco legal no ha seguido el ritmo del desarrollo de la industria de IA y pidió al Congreso de EE. UU. que establezca “barreras protectoras” para evitar que la IA se utilice en programas de vigilancia masiva en el país.
En un desarrollo relacionado, el Secretario de Defensa de EE. UU., Pete Hegseth, declaró el viernes que Anthropic representa un “riesgo en la cadena de suministro para la seguridad nacional” y exigió que todos los contratistas, proveedores o socios que trabajen con el ejército de EE. UU. cesen inmediatamente sus actividades comerciales con la compañía.
Solo unas horas después de este anuncio, el competidor de Anthropic, OpenAI, aceptó un contrato con el Departamento de Defensa de EE. UU. para desplegar sus modelos de IA en la red militar.