El CEO de Anthropic se opone a la supervisión y a las armas automáticas, y es etiquetado por el Pentágono como de “riesgo en la cadena de suministro”

TapChiBitcoin

El CEO de la compañía de IA Anthropic, Dario Amodei, ha respondido al Departamento de Defensa y a la Casa Blanca después de que los contratistas de defensa que trabajan con el Departamento de Defensa de EE. UU. fueran instruidos a dejar de usar los productos de Anthropic.

En una entrevista con CBS News el sábado, Amodei afirmó que Anthropic se opone al uso de sus modelos de IA para vigilancia masiva en el país y al desarrollo de armas completamente automáticas que puedan disparar sin intervención humana.

Él enfatizó que Anthropic está de acuerdo con la mayoría de las propuestas del gobierno de EE. UU. sobre el uso de IA, excepto en esas dos áreas. Según Amodei, estos son temas fundamentales para los estadounidenses, incluyendo el derecho a no ser vigilados por el gobierno y el derecho de los militares a tomar decisiones relacionadas con la guerra sin ceder todo el control a las máquinas.

Anteriormente, el Departamento de Defensa de EE. UU. etiquetó a Anthropic como “riesgo en la cadena de suministro”, lo que significa que los contratistas militares no pueden usar los productos de la compañía en contratos de defensa. Amodei calificó esta medida como “sin precedentes” y de carácter “punitivo”.

Sin embargo, el CEO de Anthropic también aclaró que no está completamente en contra del desarrollo de armas automáticas en el futuro, especialmente si otros países comienzan a implementar esta tecnología. Según él, el problema actual es que la IA aún no es lo suficientemente confiable para operar de manera completamente autónoma en entornos militares.

Amodei afirmó que el marco legal no ha seguido el ritmo del desarrollo de la industria de IA y pidió al Congreso de EE. UU. que establezca “barreras protectoras” para evitar que la IA se utilice en programas de vigilancia masiva en el país.

En un desarrollo relacionado, el Secretario de Defensa de EE. UU., Pete Hegseth, declaró el viernes que Anthropic representa un “riesgo en la cadena de suministro para la seguridad nacional” y exigió que todos los contratistas, proveedores o socios que trabajen con el ejército de EE. UU. cesen inmediatamente sus actividades comerciales con la compañía.

Solo unas horas después de este anuncio, el competidor de Anthropic, OpenAI, aceptó un contrato con el Departamento de Defensa de EE. UU. para desplegar sus modelos de IA en la red militar.

Ver originales
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)