The Wall Street Journal revela: Trump elimina a Khamenei de Irán usando la localización de Claude AI, OpenAI toma el control total de los sistemas del Pentágono

動區BlockTempo

Según lo revelado por The Wall Street Journal, el Comando Central de EE. UU. (CENTCOM) utilizó el sistema Claude AI de Anthropic en la operación de bombardeo en Irán, proporcionando análisis de inteligencia, identificación de objetivos y simulaciones de campo de batalla — sin embargo, esto ocurrió solo unas horas después de que Trump firmara la orden ejecutiva para prohibir Anthropic. Este incidente destaca que la IA ya está profundamente integrada en la infraestructura de defensa, y que incluso una orden presidencial no puede cortarla de inmediato. Anthropic fue excluida por el Pentágono por negarse a levantar restricciones sobre armas autónomas y vigilancia masiva, y OpenAI rápidamente asumió el control.

(Resumen previo: ¡Trump quiere prohibir completamente Anthropic! Se niegan a modificar Claude para evitar “restricciones de asesinato”, y OpenAI sorprendentemente los apoya)

(Información adicional: ¡El Pentágono exige a Anthropic que abra la puerta a uso militar de Claude! “De lo contrario, cancelamos el contrato y nos vamos”)

Índice del artículo

Toggle

  • La orden se firma, pero Claude sigue “trabajando” en el campo de batalla
  • Anthropic mantiene dos líneas rojas, y enfrenta “desobediencia” y salida
  • OpenAI toma el relevo rápidamente, la carrera armamentística de IA cambia de protagonistas
  • La IA ya no tiene vuelta atrás: las órdenes no frenan la inercia tecnológica

El viernes pasado, cuando la administración Trump ordenó detener el uso de la tecnología de Anthropic y el Departamento de Defensa la incluyó en la lista de “riesgos en la cadena de suministro”, las operaciones militares en Irán continuaron dependiendo de Claude AI. Esta aparente contradicción revela una realidad inquietante: la penetración de la IA en los sistemas militares ha superado el alcance de las órdenes ejecutivas para detenerla en corto plazo.

La orden se firma, pero Claude sigue “trabajando” en el campo de batalla

Según fuentes citadas por The Wall Street Journal, en la operación “Furia Épica” (Operation Epic Fury) en Irán, el Comando Central de EE. UU. continuó usando Claude para tareas clave — incluyendo análisis de inteligencia, identificación de objetivos y simulaciones de escenario de combate.

El año pasado, Anthropic firmó un contrato prototipo de dos años y hasta 200 millones de dólares con el Pentágono, en colaboración con Palantir y Amazon Web Services. Claude fue el primer modelo de IA comercial autorizado para operar en las redes confidenciales del Pentágono, con aplicaciones que van desde pruebas de armas hasta comunicaciones en tiempo real en el campo. Se reporta que anteriormente, en enero de este año, también apoyó en las operaciones del presidente venezolano Maduro.

Anthropic mantiene dos líneas rojas, y enfrenta “desobediencia” y salida

El conflicto central radica en que el Pentágono exige a Anthropic eliminar las restricciones en el contrato, permitiendo que Claude sea usado para “todos los usos legales”; pero el CEO de Anthropic, Dario Amodei, se niega a ceder, manteniendo dos principios éticos fundamentales:

  • Claude no debe usarse para vigilancia masiva de ciudadanos estadounidenses
  • No debe impulsar sistemas de armas completamente autónomas

Amodei declaró que la compañía se opone a que la IA sea utilizada para “vigilancia masiva interna” y “armas totalmente autónomas”, enfatizando que las decisiones militares deben ser humanas, no algoritmos. En su declaración afirmó: “No podemos aceptar ciegamente sus demandas”.

El secretario de Defensa, Pete Hegseth, rápidamente incluyó a Anthropic en la lista de “riesgos en la cadena de suministro”, y Trump ordenó directamente a todas las agencias federales “detener inmediatamente el uso” de la tecnología de Anthropic — aunque el Departamento de Defensa y otros sectores clave tienen un período de transición de seis meses. Anthropic anunció que desafiará esta decisión en los tribunales, alegando que carece de fundamento legal, y advirtió que esto establecerá un peligroso precedente para “cualquier empresa estadounidense que negocie con el gobierno”.

OpenAI toma el relevo rápidamente, la carrera armamentística de IA cambia de protagonistas

A pocas horas de que Trump anunciara la prohibición de Anthropic, OpenAI anunció que había llegado a un acuerdo con el Departamento de Defensa para desplegar su tecnología de IA en redes militares confidenciales.

Cabe destacar que, durante toda la controversia, el CEO de OpenAI, Sam Altman, expresó públicamente su apoyo a Anthropic en una entrevista en CNBC, calificándola como “una entidad confiable en seguridad”. Aunque finalmente OpenAI tomó el contrato militar que Anthropic se vio obligado a abandonar, esta interacción revela la delicada tensión entre intereses comerciales y éticos en Silicon Valley.

La IA ya no tiene vuelta atrás: las órdenes no frenan la inercia tecnológica

Lo más inquietante de este incidente no es solo la lucha política entre Trump y Anthropic, sino una realidad más profunda: cuando los sistemas de IA están ya profundamente integrados en cada aspecto del ciclo militar, desde análisis de inteligencia hasta identificación de objetivos, cualquier orden de “desconectar” no puede implementarse en corto plazo.

Para las comunidades de criptomonedas y Web3, este caso ofrece una advertencia: tanto en IA como en blockchain, cuando la tecnología penetra en los centros neurálgicos del gobierno y la defensa, los ideales de “descentralización” deben enfrentarse a la realidad del “voluntad del Estado”. La experiencia de Anthropic muestra que mantener la ética tecnológica puede tener un costo: perder a los clientes más grandes.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)