The Wall Street Journal: Después de que Trump emitiera la orden de bloqueo a Anthropic, EE. UU. y Reino Unido continúan atacando Irán y aún dependen de Claude

CryptoCity

The Wall Street Journal reports that despite Trump’s ban, the U.S. military still used Claude during airstrikes on Iran. Due to refusing unrestricted military use, Anthropic lost a $200 million contract and was listed as a “supply chain risk.” The Pentagon has now shifted to working with OpenAI.

¿Trump prohibió el uso de Claude en los ataques a Irán?

Recientemente, Estados Unidos y Israel llevaron a cabo ataques a Irán, y la orden de Trump de prohibir el uso de Claude AI de Anthropic por parte del gobierno, ha generado atención internacional. Sin embargo, según una exclusiva del Wall Street Journal, horas después de la orden de Trump, las fuerzas militares estadounidenses usaron el sistema Claude en un ataque a Irán.

Fuentes informadas revelan que la administración de Trump ya había instruido a las agencias federales el viernes pasado a dejar de colaborar con la compañía, y solicitó al Departamento de Defensa que la considerara un posible riesgo de seguridad, pero las unidades militares, incluyendo el Comando Central (CENTCOM), continuaron usando el modelo Claude AI de Anthropic para apoyo en operaciones, análisis de inteligencia, identificación de objetivos potenciales y simulaciones de campo de batalla.

La prohibición del gobierno estadounidense sobre Claude surgió por la ruptura en las negociaciones del contrato, en la que Anthropic se negó a permitir que el gobierno rompa sus barreras de seguridad, autorizando a los oficiales militares a usar su IA sin restricciones en cualquier escenario legal.

¿Por qué Anthropic tuvo conflicto con el Pentágono?

Anteriormente, Anthropic y varias otras grandes empresas de IA obtuvieron contratos plurianuales valorados en hasta 200 millones de dólares con el Pentágono. A través de colaboraciones con Palantir y Amazon Web Services, Claude fue autorizado para operaciones confidenciales y de inteligencia.

El Wall Street Journal señala que Claude también participó en operaciones militares tempranas, incluyendo una misión en enero en Venezuela que llevó a la captura del presidente Nicolás Maduro, quien fue arrestado por las fuerzas estadounidenses y llevado a EE. UU., donde afirmó ser inocente en el juicio.

  • Artículo relacionado: Maduro en EE. UU.: afirma ser inocente en juicio. La ONU convoca reunión urgente sobre Venezuela, con las posiciones de los países en un vistazo

Sin embargo, tras la solicitud del Secretario de Defensa, Pete Hegseth, de permitir el uso ilimitado de Claude por parte del ejército, la tensión aumentó. El CEO de Anthropic, Dario Amodei, rechazó la petición militar y afirmó que ciertas aplicaciones cruzarían una línea ética innegociable para la compañía, incluso si eso significaba perder contratos con el gobierno.

Por ello, el Pentágono comenzó a buscar proveedores alternativos y alcanzó un acuerdo con OpenAI para desplegar el modelo ChatGPT en redes militares confidenciales.

OpenAI asume contrato militar, genera dudas

Tras la firma del acuerdo con el ejército estadounidense, OpenAI enfrentó críticas. Sreemoy Talukdar, editor de Firstpost, comentó que Anthropic había declarado previamente que no violaría sus principios fundamentales respecto a la vigilancia masiva interna y los sistemas de armas autónomas, por lo que el Departamento de Guerra de Trump suspendió la colaboración.

Pero ahora, el CEO de OpenAI, Sam Altman, afirma que el Departamento de Guerra aceptó estos mismos principios de seguridad, lo que ha generado debate sobre los estándares del contrato.

Fuente: X OpenAI asume contrato con el ejército de EE. UU., genera dudas

Anthropic, la primera empresa estadounidense en ser catalogada como “riesgo en la cadena de suministro”

Por negarse a permitir el uso ilimitado de Claude por parte del ejército estadounidense, Anthropic actualmente está en disputa con la Casa Blanca. El Secretario de Defensa, Pete Hegseth, ha declarado públicamente que Anthropic representa un “riesgo en la cadena de suministro”.

Esto convierte a Anthropic en la primera empresa estadounidense en ser etiquetada públicamente como “riesgo en la cadena de suministro”, una clasificación que generalmente se reserva para compañías con vínculos directos con adversarios extranjeros.

Tras ser incluida en la lista, el gobierno podrá exigir a todos los contratistas militares que demuestren que sus trabajos no involucran productos de Anthropic. Frente a esta decisión, Anthropic planea presentar una impugnación legal contra la clasificación de riesgo en la cadena de suministro y declaró:

“Esto no solo viola la ley, sino que también establece un peligroso precedente para cualquier empresa estadounidense que negocie con el gobierno. Por más que el Departamento de Defensa intente intimidarnos o castigarnos, no cambiará nuestra postura contra la vigilancia masiva interna o las armas completamente autónomas.”

Lectura adicional:
Seguridad nacional vs. ética: Anthropic se niega a eliminar las barreras de seguridad de Claude, enfrentándose al Departamento de Defensa de EE. UU.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios