Anthropic y el Pentágono reanudan las negociaciones sobre IA: buscan mantener la colaboración en defensa con Claude, pero manteniendo las líneas éticas

動區BlockTempo

En medio de un intenso conflicto entre la ética de la IA y las necesidades militares, el CEO de Anthropic, Dario Amodei, ha reanudado recientemente las negociaciones con el Pentágono de EE. UU., intentando salvar un contrato de colaboración en IA valorado en cientos de millones de dólares, manteniendo las «líneas rojas» de la compañía y evitando ser excluidos formalmente de la cadena de suministro de defensa.
(Resumen previo: El CEO de Anthropic acusa: Los contratos entre OpenAI y el Pentágono son mentiras, Altman se disfraza de embajador de paz)
(Información adicional: ¡Trump quiere prohibir completamente a Anthropic! Rechaza modificar Claude para «limitaciones de asesinato», y sorprendentemente OpenAI apoya esta postura)

Índice del artículo

Alternar

  • Antecedentes de la negociación y las líneas rojas
  • Últimos avances en la reanudación de las negociaciones
  • Significado del evento y perspectivas futuras

La compañía estadounidense de IA Anthropic, cuyo CEO Dario Amodei, reanudó recientemente las negociaciones con el Departamento de Defensa de EE. UU. (Pentágono), para realizar los últimos esfuerzos en los términos del contrato de uso militar de su modelo de IA Claude. Esto ocurrió después de que la semana pasada las negociaciones se rompieran y el Pentágono incluyera a Anthropic en la lista de «riesgos en la cadena de suministro», con el objetivo de evitar que Anthropic sea excluido de la colaboración con las fuerzas armadas estadounidenses, y al mismo tiempo mantener sus principios éticos fundamentales.

Antecedentes de la negociación y las líneas rojas

Desde el año pasado, Anthropic firmó un contrato piloto valorado en hasta 200 millones de dólares con el Pentágono, que convirtió a Claude en el primer modelo avanzado de IA autorizado para desplegarse en redes confidenciales. Sin embargo, el gobierno de Trump posteriormente exigió modificar los términos, insistiendo en que la IA debía ser utilizada para «todos los usos legales» (any lawful use), sin restricciones.

Anthropic mantiene dos «líneas rojas»: prohibir que Claude sea utilizado para vigilancia masiva en EE. UU. y prohibir su uso en armas completamente autónomas (fully autonomous weapons, sistemas que pueden seleccionar y atacar objetivos sin intervención humana). La compañía considera que estos usos podrían poner en peligro los valores democráticos y que la tecnología de IA aún no es lo suficientemente confiable. Sin embargo, el secretario de Defensa, Pete Hegseth, emitió un ultimátum, exigiendo una concesión en el plazo establecido, o de lo contrario, la terminación del contrato y la aplicación de regulaciones relacionadas, lo que llevó a que las negociaciones colapsaran el pasado viernes.

Últimos avances en la reanudación de las negociaciones

Fuentes cercanas a la situación revelaron que Amodei actualmente está negociando directamente con Emil Michael, subsecretario de Investigación y Ingeniería del Departamento de Defensa, con el objetivo de llegar a un acuerdo de compromiso que permita a las fuerzas armadas estadounidenses seguir usando Claude, reduciendo significativamente el riesgo de que Anthropic sea incluido en la lista negra oficial.

Si tienen éxito, el nuevo contrato podría aliviar las tensiones y afectar la competencia en la industria de IA — por ejemplo, OpenAI ya ha llegado a un acuerdo con el Pentágono, pero también está ajustando sus términos para incluir restricciones similares. Anthropic enfatiza que aún está dispuesto a colaborar, pero sin renunciar a sus principios fundamentales; si no se logra un consenso, la compañía ayudará a una transición suave hacia otros proveedores para no afectar las operaciones militares.

Significado del evento y perspectivas futuras

Esta disputa pone de manifiesto la lucha entre las empresas de IA y las fuerzas armadas en torno a la ética, la seguridad y la seguridad nacional. Anthropic, con su marca de «IA responsable», se niega a ceder sin condiciones, reflejando las profundas preocupaciones de algunas empresas de Silicon Valley sobre las aplicaciones militares de la IA; por otro lado, el Pentágono enfatiza la flexibilidad en el campo de batalla y la ventaja tecnológica.

Si las negociaciones prosperan, podrían establecer un nuevo ejemplo para las aplicaciones militares de IA; de lo contrario, podrían profundizar la división en la industria. Se espera que pronto surjan declaraciones oficiales o nuevos avances en el tema.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios