OpenAI Acaba de Decirle al Pentágono lo que quería escuchar


Soy del equipo Anthropic. Vale la pena decirlo desde el principio.
Claude es el único modelo de IA dentro de las redes clasificadas del ejército de EE. UU. No uno de varios — el único. Análisis de inteligencia, planificación operativa, operaciones cibernéticas, modelado y simulación. Integrado tan profundamente que un alto funcionario del Pentágono admitió que sacarlo sería "un dolor de huevos enorme."
Y luego Anthropic les dijo que no.
El Pentágono quería una cláusula en el contrato: todos los usos legales. Suena razonable hasta que entiendes qué es legal — análisis masivo de datos de ubicación disponibles comercialmente, señales de rastreadores de fitness, registros telefónicos, todo combinado a gran escala para perfilar a civiles estadounidenses. No ilegal. Definitivamente vigilancia. Anthropic trazó una línea allí, y en armas autónomas. Querían que estuviera escrito en el contrato. El DoD dijo que no. Las conversaciones colapsaron en febrero.
Trump declaró a Anthropic un riesgo en la cadena de suministro y ordenó a todas las agencias federales que dejaran de usar su tecnología. Esa designación normalmente se reserva para adversarios extranjeros. Para una empresa que no permite que el ejército espía a sus propios ciudadanos sin restricciones.
Horas después, OpenAI tenía un acuerdo. Mismos términos, dice el Pentágono — pero los analistas que leyeron el contrato real encontraron despliegue solo en la nube y bases legales que no estaban en la oferta de Anthropic. Tómalo como quieras.
Esto es lo que sigo pensando. Anthropic sabía exactamente dónde estaban. Tienen el mejor modelo de razonamiento en este momento — no cerca, Claude Opus 4.6 alcanza un 68.8% en ARC-AGI-2, GPT se queda en 52.9%. El gobierno también lo sabía. Querían específicamente a Claude. Amenazaron con "hacerlos pagar" específicamente. E incluso después de todo, su opción de reemplazo fue Grok, que ellos mismos admiten que no es un reemplazo exacto. No emites una amenaza así contra un proveedor del que puedes alejarte.
Así que Anthropic tenía toda la ventaja. Tenían el modelo que nadie más puede replicar, la única presencia en sistemas clasificados, y una base de ingresos lo suficientemente grande como para que $200M sea ruido. Aun así, dijeron que no. Y ahora están pagando por ello.
Eso no es martirio — es una empresa que entiende lo que tiene en sus manos. Cuando crees que podrías estar construyendo algo sin un techo claro en capacidad, y un gobierno quiere usarlo en sus propios ciudadanos sin límites escritos, o mantienes esa línea o no. La mantuvieron.
El libro de jugadas de Altman es más viejo. Darle a la gente el producto gratis. Crear el hábito a escala. Luego el hábito tiene un precio, y alguien lo paga — primero los anunciantes, luego los gobiernos, luego quien sea el siguiente. El usuario no necesita entender la cadena. Solo necesita seguir usándolo.
La mayoría no quiere saber. Está bien. La economía funciona de cualquier manera.
Pero el Pentágono acaba de encontrarse con el único laboratorio de IA que decidió que el contrato importaba menos que la cláusula. Que preferirían ser etiquetados como una amenaza a la seguridad nacional antes que dejar una línea sobre vigilancia. Y sea lo que sea que pienses sobre la industria de IA en general, esa decisión específica, bajo esa presión específica — eso es inusual.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)