La prohibición surge de un enfrentamiento de alto riesgo entre Anthropic y el Pentágono (reconvertido por la administración como el "Departamento de Guerra"). La fecha límite: El Pentágono dio a Anthropic una fecha límite a las 5:01 p.m. ET del viernes para eliminar las "líneas rojas" éticas de sus modelos Claude AI. La negativa: El CEO Dario Amodei se negó a renunciar a las salvaguardas que impiden que Claude sea utilizado para vigilancia masiva doméstica o armas letales totalmente autónomas. La reacción: El presidente Trump calificó esto como un intento de "amenazar" al gobierno, lo que llevó a la prohibición a nivel federal y a un período de transición de seis meses para las integraciones militares existentes. 🔍 Desarrollos clave a seguir Designación de riesgo en la cadena de suministro: El Secretario de Defensa Pete Hegseth ha designado a Anthropic como un "Riesgo en la cadena de suministro para la seguridad nacional". Esta es una etiqueta severa generalmente reservada para adversarios extranjeros. Técnicamente prohíbe que cualquier contratista que haga negocios con el ejército de EE. UU. también haga negocios con Anthropic. El giro de OpenAI: Solo horas después de la prohibición, OpenAI supuestamente cerró un acuerdo con el Pentágono para proporcionar sus modelos para redes clasificadas. Aunque OpenAI afirma que mantendrá sus propias barreras de seguridad, la administración declaró que este nuevo acuerdo permite "todo uso legal" requerido por el ejército. Guerra legal: Anthropic ya ha señalado que desafiará la designación de "riesgo en la cadena de suministro" en los tribunales, calificándola de "insostenible legalmente" y un acto de intimidación.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
3 me gusta
Recompensa
3
3
Republicar
Compartir
Comentar
0/400
Surrealist5N1K
· hace1h
Te deseo mucha suerte en el año Y, espero que tengas éxito y te hagas rico😘
Ver originalesResponder0
Surrealist5N1K
· hace1h
Te deseo mucha suerte en el año Y, espero que tengas éxito y te hagas rico😘
#DeepCreationCamp 🏛️ El núcleo del conflicto
La prohibición surge de un enfrentamiento de alto riesgo entre Anthropic y el Pentágono (reconvertido por la administración como el "Departamento de Guerra").
La fecha límite: El Pentágono dio a Anthropic una fecha límite a las 5:01 p.m. ET del viernes para eliminar las "líneas rojas" éticas de sus modelos Claude AI.
La negativa: El CEO Dario Amodei se negó a renunciar a las salvaguardas que impiden que Claude sea utilizado para vigilancia masiva doméstica o armas letales totalmente autónomas.
La reacción: El presidente Trump calificó esto como un intento de "amenazar" al gobierno, lo que llevó a la prohibición a nivel federal y a un período de transición de seis meses para las integraciones militares existentes.
🔍 Desarrollos clave a seguir
Designación de riesgo en la cadena de suministro: El Secretario de Defensa Pete Hegseth ha designado a Anthropic como un "Riesgo en la cadena de suministro para la seguridad nacional". Esta es una etiqueta severa generalmente reservada para adversarios extranjeros. Técnicamente prohíbe que cualquier contratista que haga negocios con el ejército de EE. UU. también haga negocios con Anthropic.
El giro de OpenAI: Solo horas después de la prohibición, OpenAI supuestamente cerró un acuerdo con el Pentágono para proporcionar sus modelos para redes clasificadas. Aunque OpenAI afirma que mantendrá sus propias barreras de seguridad, la administración declaró que este nuevo acuerdo permite "todo uso legal" requerido por el ejército.
Guerra legal: Anthropic ya ha señalado que desafiará la designación de "riesgo en la cadena de suministro" en los tribunales, calificándola de "insostenible legalmente" y un acto de intimidación.