OpenAI gana contrato de IA en la Casa Blanca! Sam Altman admite que fue una "decisión apresurada", enfatizando que no implica vigilancia masiva ni armas automáticas

ChainNewsAbmedia

Tras la ruptura de negociaciones con el Pentágono, Anthropic fue catalogada como una empresa de riesgo en la cadena de suministro por el gobierno de EE. UU., y OpenAI anunció rápidamente que había obtenido un contrato con el Departamento de Defensa para desplegar su modelo de IA en entornos confidenciales. Esta operación no solo generó conmoción en la industria, sino que también llevó al CEO de OpenAI, Sam Altman, a admitir de manera poco común: «Este acuerdo fue realmente apresurado y la percepción no es buena».

(¡Anthropic y el Pentágono en conflicto abierto! CEO Amodei rechaza «monitoreo masivo interno» y «armas completamente autónomas»)

Ruptura en negociaciones con Anthropic, el gobierno de Trump interviene para bloquear

Tras la ruptura de las negociaciones con el Pentágono el pasado viernes, el presidente Donald Trump ordenó a las agencias federales que, tras un período de transición de seis meses, dejaran de usar la tecnología de Anthropic. El Secretario de Defensa, Pete Hegseth, incluso calificó públicamente a Anthropic como un «riesgo en la cadena de suministro».

Esta decisión impactó profundamente en la industria de IA. Anthropic siempre ha enfatizado que su tecnología no debe usarse para «armas completamente autónomas» ni para «monitoreo masivo interno», estableciendo límites claros. Sin embargo, parece que no lograron llegar a un acuerdo con el Pentágono.

Mientras el sector aún digiere esta noticia, OpenAI anunció rápidamente que había llegado a un acuerdo con el Departamento de Defensa para desplegar su modelo en entornos confidenciales. La coincidencia en el momento ha generado gran interés en la industria.

OpenAI: Nuestros límites no han cambiado

Frente a las dudas sobre si OpenAI se ha flexibilizado bajo presión de seguridad nacional, la compañía publicó un artículo en su blog oficial en el que detalla tres usos claramente prohibidos:

Monitoreo masivo interno

Sistemas de armas autónomas

Decisiones automatizadas de alto riesgo (como «sistemas de crédito social»)

OpenAI enfatiza que, a diferencia de algunas empresas de IA que «relajan o eliminan barreras de seguridad, confiando solo en políticas de uso», su colaboración con el Departamento de Defensa adopta una estructura de seguridad «multinivel y exhaustiva».

Según la explicación oficial, OpenAI mantiene control completo sobre las medidas de seguridad, desplegando el modelo a través de API en la nube, asegurando que solo personal con auditoría de seguridad participe en su operación, además de contar con cláusulas contractuales estrictas y respaldo en las leyes existentes en EE. UU.

En su declaración, OpenAI también afirmó: «No sabemos por qué Anthropic no pudo cerrar este acuerdo, pero esperamos que reconsideren con más laboratorios».

Nube de sospechas: la Orden Ejecutiva 12333 en el centro del debate

Aunque OpenAI insiste en que sus límites son claros, la comunidad tecnológica no lo acepta fácilmente. Mike Masnick, fundador de Techdirt, señaló que el contrato menciona que la recopilación de datos cumplirá con la Orden Ejecutiva 12333 y otras leyes, lo que en realidad podría permitir aún el monitoreo interno.

Masnick explicó que la Orden Ejecutiva 12333 ha sido criticada durante mucho tiempo como la base legal para que la NSA intercepte comunicaciones internacionales que involucren datos de ciudadanos estadounidenses. Esto implica que el acuerdo de OpenAI «en realidad permite el monitoreo interno».

En respuesta, Katrina Mulligan, responsable de cooperación en seguridad nacional de OpenAI, publicó en LinkedIn que la atención excesiva en un solo cláusula del contrato es un error. Ella afirmó que asumir que esa cláusula es la única barrera para que la IA no sea usada en monitoreo masivo o armas autónomas «es completamente incorrecto».

Resaltó que «la estructura de despliegue es más importante que el lenguaje del contrato». Al ofrecer solo API en la nube, OpenAI puede garantizar que el modelo no se integre directamente en sistemas de armas, sensores u otros hardware de combate.

Sam Altman admite la precipitación: ¿para «calmar» el conflicto en la industria?

En la plataforma X, Sam Altman también respondió a las dudas. Reconoció que el acuerdo fue «realmente apresurado» y admitió que la compañía enfrentó una fuerte reacción.

La magnitud de la reacción incluso se reflejó en la competencia del mercado: el sábado, el modelo Claude de Anthropic superó en descargas a ChatGPT en la App Store de Apple.

(¡Anthropic rompe contrato con el Pentágono, Claude alcanza la cima en descargas!)

¿Entonces por qué firmar el acuerdo?

Altman explicó: «Realmente queríamos reducir la tensión, creemos que este acuerdo es razonable». Además, señaló que si esta colaboración ayuda a aliviar las tensiones entre el Departamento de Defensa y la industria de IA, OpenAI será vista como una empresa que, bajo presión, logra estabilizar la situación; si no, la crítica por decisiones apresuradas y poco prudentes continuará.

La batalla por los límites entre IA y defensa: la industria entra en una nueva fase

Este incidente revela un problema más profundo: a medida que la tecnología de IA madura, ¿cómo pueden las empresas tecnológicas equilibrar la seguridad nacional con las líneas éticas?

Anthropic decidió mantener sus principios y perdió el contrato gubernamental; OpenAI optó por intervenir rápidamente y tratar de asegurar límites de seguridad mediante arquitectura técnica y mecanismos legales. Ambas estrategias representan diferentes formas de asumir riesgos.

En el futuro, la colaboración entre empresas de IA y gobiernos será más frecuente. La clave será si estas alianzas logran proteger la seguridad nacional sin comprometer la libertad ciudadana ni los principios éticos tecnológicos.

Este artículo sobre cómo OpenAI obtuvo un contrato con el Pentágono y la admisión de Altman de que fue una decisión apresurada, enfatizando que no involucra monitoreo masivo ni armas autónomas, fue publicado originalmente en Chain News ABMedia.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)