El IA de Anthropic utilizado en las huelgas de Irán después de que Trump intentara cortar los lazos: WSJ

Decrypt

En resumen

  • Se informa que el Comando Central de EE. UU. utilizó Claude de Anthropic para evaluaciones de inteligencia, identificación de objetivos y simulaciones de batalla durante los ataques a Irán.
  • Los expertos advierten que el plazo de seis meses para la eliminación gradual subestima el verdadero costo de reemplazar un modelo de IA integrado en las redes de defensa clasificadas.
  • OpenAI hizo un acuerdo con el Pentágono tras la caída en desgracia de Anthropic.

Horas después de que el presidente Donald Trump ordenara a las agencias federales detener el uso de las herramientas de IA de Anthropic, el ejército de EE. UU. llevó a cabo un importante ataque aéreo en Irán que supuestamente dependió de la plataforma Claude de la compañía. El Comando Central de EE. UU. utilizó Claude para evaluaciones de inteligencia, identificación de objetivos y simulación de escenarios de batalla durante los ataques a Irán, confirmaron personas familiarizadas con el asunto al Wall Street Journal el sábado. Esto ocurrió a pesar de la directiva de Trump del viernes, que ordenaba a las agencias comenzar una eliminación gradual de seis meses de los productos de Anthropic tras un quiebre en las negociaciones entre la compañía y el Pentágono sobre cómo puede usar sistemas de IA desarrollados comercialmente. Decrypt se ha puesto en contacto con el Departamento de Defensa y Anthropic para solicitar comentarios.

 “Cuando las herramientas de IA ya están integradas en sistemas de inteligencia y simulación en vivo, las decisiones en la cima no se traducen instantáneamente en cambios en el terreno”, dijo Midhun Krishna M, cofundador y CEO de TknOps.io, a Decrypt. “Hay un retraso—técnico, procedimental y humano.” “Para cuando un modelo está integrado en sistemas de inteligencia y simulación clasificados, ya estás enfrentando costos de integración hundidos, reentrenamiento, recertificaciones de seguridad y pruebas paralelas, por lo que una eliminación en seis meses puede parecer decisiva, pero la carga financiera y operativa real es mucho más profunda”, añadió Krishna. “Las agencias de defensa ahora priorizarán la portabilidad y redundancia del modelo”, dijo. “Ningún operador militar serio quiere descubrir durante una crisis que su capa de IA es políticamente frágil.”

El CEO de Anthropic, Dario Amodei, dijo el jueves que la compañía no eliminaría las salvaguardas que impiden que Claude sea desplegado para vigilancia masiva doméstica o armas completamente autónomas. “No podemos, en buena conciencia, acceder a su solicitud”, escribió Amodei, después de que el Departamento de Defensa exigiera a los contratistas permitir el uso de sus sistemas para “cualquier uso legal”. “Los extremistas de izquierda en Anthropic han cometido un ERROR DESASTROSO al intentar forzar al Departamento de Guerra”, escribió Trump más tarde en Truth Social, ordenando a las agencias que “cesen inmediatamente” todo uso de productos de Anthropic. El Secretario de Defensa, Pete Hegseth, siguió, designando a Anthropic como un “riesgo en la cadena de suministro para la seguridad nacional”, una etiqueta previamente reservada para adversarios extranjeros, prohibiendo toda actividad comercial del Pentágono con la compañía. Anthropic calificó esa designación como “sin precedentes” y prometió impugnarla en los tribunales, diciendo que “nunca antes se había aplicado públicamente a una empresa estadounidense”. La compañía añadió que, hasta donde sabe, las dos restricciones en disputa no han afectado ninguna misión gubernamental hasta la fecha. “La discusión no es si la IA será utilizada en defensa, eso ya está ocurriendo”, añadió Krishna. “Es si los laboratorios de frontera podrán mantener barreras diferenciadas una vez que sus sistemas sean activos bajo contratos de ‘cualquier uso legal’.” OpenAI se movió rápidamente para llenar ese vacío, con el CEO Sam Altman anunciando un acuerdo con el Pentágono el viernes por la noche que cubría redes militares clasificadas, afirmando que incluía las mismas salvaguardas que Anthropic buscaba.

Ayer llegamos a un acuerdo con el Departamento de Guerra para desplegar sistemas avanzados de IA en entornos clasificados, que solicitamos estuvieran disponibles para todas las empresas de IA.

Creemos que nuestro despliegue tiene más barreras de protección que cualquier acuerdo previo para IA clasificada…

— OpenAI (@OpenAI) 28 de febrero de 2026

Preguntado si la efectiva lista negra del Pentágono a Anthropic sentaba un precedente preocupante para futuras disputas con empresas de IA, el CEO de OpenAI, Sam Altman, respondió en X: “Sí; creo que es un precedente extremadamente aterrador, y ojalá lo hubieran manejado de otra manera. “No creo que Anthropic lo manejara bien tampoco, pero como la parte más poderosa, considero que el gobierno es más responsable. Todavía tengo esperanza en una resolución mucho mejor”, añadió. Mientras tanto, casi 500 empleados de OpenAI y Google firmaron una carta abierta advirtiendo que el Pentágono intentaba enfrentarlos entre sí.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)