Sam Altman anuncia que el modelo de IA de OpenAI será desplegado en la red clasificada de EE. UU., generando preocupaciones sobre la seguridad de la IA y la ética militar

GateNews

El 28 de febrero, Sam Altman anunció hoy en la plataforma X que OpenAI ha alcanzado un acuerdo con el Departamento de Guerra de EE. UU. para desplegar sus modelos de inteligencia artificial en redes clasificadas estadounidenses. Altman afirmó que en todas las interacciones, el Departamento de Guerra mostró un fuerte énfasis en la seguridad de la IA y esperaba lograr los mejores resultados de aplicación mediante la cooperación.

Altman enfatizó que la seguridad y la inclusión de la inteligencia artificial son la misión central de OpenAI. Dos principios clave de seguridad propuestos por la empresa —prohibir la vigilancia masiva dentro del país y garantizar la responsabilidad humana por el uso de la fuerza— han sido respaldados por el Departamento de Guerra y plasmados en leyes y políticas. Estos principios también se incorporan en acuerdos formales entre las partes.

Para garantizar que el modelo funcione de forma segura, OpenAI desplegará un Dispositivo Funcional Aumentado (FDE) y solo funcionará en redes en la nube. Además, ambas partes planean crear salvaguardas técnicas para prevenir el abuso de modelos o comportamientos anómalos. Altman también pidió al Departamento de Guerra de EE. UU. que proporcione los mismos términos de cooperación a todas las empresas de IA, subrayando la importancia de la competencia justa y la responsabilidad compartida.

En conjunto, este acuerdo no solo marca la aplicación formal de tecnología de inteligencia artificial de vanguardia por parte del gobierno estadounidense en redes sensibles, sino que también destaca la implementación práctica de la seguridad y la responsabilidad ética de la IA en escenarios militares. Altman afirmó que OpenAI seguirá trabajando para que la inteligencia artificial beneficie a toda la humanidad, al tiempo que promueve una tecnología responsable en un entorno real complejo, caótico e incluso peligroso.

La colaboración ha atraído una amplia atención en la industria y se cree que ha abierto nuevos caminos para la aplicación de la IA en la defensa y en infraestructuras críticas, al tiempo que ha generado debates sobre la seguridad de los sistemas de armas autónomas y la responsabilidad de la toma de decisiones humanas.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)