El gobierno de Trump ha mantenido durante mucho tiempo una postura de no intervenir en la inteligencia artificial; sin embargo, ahora, debido a las preocupaciones de ciberseguridad que ha provocado el potente modelo Mythos de Anthropic presentado recientemente, empieza a considerar implementar un mecanismo de revisión gubernamental antes de que los modelos de IA se publiquen al público, lo que simboliza un giro importante en la política de regulación de la IA en Estados Unidos.
Giro brusco en la política de IA de la Casa Blanca: de la permisividad al control
El New York Times informó que funcionarios estadounidenses revelaron que el presidente Trump está considerando emitir una orden ejecutiva para crear un grupo de trabajo de IA integrado por altos directivos de la industria tecnológica y funcionarios del gobierno, con el fin de diseñar el procedimiento de revisión gubernamental que se aplicaría antes de que los nuevos modelos de IA se den a conocer al público.
La Casa Blanca ya sostuvo la semana pasada conversaciones sobre el plan con altos ejecutivos de Anthropic, Google, OpenAI y otras empresas. Personas con conocimiento indicaron que el posible mecanismo de revisión podría basarse en el modelo actual del Reino Unido, en el que múltiples organismos gubernamentales colaboran para garantizar que los modelos de IA cumplan con ciertos estándares de seguridad.
Este cambio de política contrasta con la postura abierta de Trump en el pasado. En julio del año pasado, recién lo había dicho públicamente: «Tenemos que dejar que este bebé crezca y prospere; no podemos detenerlo con regulaciones estúpidas», y, tras asumir el cargo, derogó rápidamente los procedimientos regulatorios del gobierno de Biden que exigían a los desarrolladores de IA realizar evaluaciones de seguridad. Sin embargo, en apenas unos meses, el rumbo de la política ya cambió.
El «Claude Mythos» que Anthropic no se atreve a publicar sacude a la Casa Blanca
Una de las razones consideradas por las que la Casa Blanca cambió de actitud sería el nuevo modelo de IA Claude Mythos publicado por Anthropic el mes pasado. Anthropic advirtió que Mythos tiene una capacidad extremadamente fuerte para identificar vulnerabilidades de seguridad del software, capaz de aprovechar las debilidades de «todos los sistemas operativos y navegadores web principales», lo que podría desencadenar ciberataques a gran escala. Al final, decidió no publicarlo al público.
La Casa Blanca está muy en alerta ante esto, preocupada de que, si ocurre un evento devastador de ciberataque impulsado por IA, el gobierno enfrentará graves consecuencias políticas. Algunos funcionarios incluso evalúan de manera más activa si se puede establecer un mecanismo de «acceso prioritario para el gobierno», para que las agencias federales obtengan acceso primero antes de la publicación del modelo, garantizando que el valor militar e de inteligencia del nuevo modelo pueda ser aprovechado por el Pentágono.
(El modelo de ciberseguridad de nivel armamentístico Mythos de Anthropic sufrió acceso no autorizado: ¿cómo lo lograron?)
Pleito legal entre Anthropic y el Pentágono
El trasfondo del ajuste de políticas también se entrelaza con una complicada disputa legal entre el gobierno y las empresas. En febrero de este año, Anthropic y el Pentágono discutieron un contrato de 200 millones de dólares, pero Anthropic optó por negarse a la solicitud del gobierno de Trump. Por ello, el Departamento de Defensa de Estados Unidos incluyó a Anthropic como un «riesgo en la cadena de suministro para la seguridad nacional». Anthropic luego presentó una demanda para intentar detener esta medida.
El mes pasado, el jefe de gabinete de la Casa Blanca, Susie Wiles, y la secretaria del Tesoro, Bezernt, recibieron en la Casa Blanca al CEO de Anthropic, Dario Amodei, con el foco puesto en cómo restaurar el uso de la tecnología de Anthropic por parte del gobierno. Después de la reunión, ambas partes describieron que el encuentro fue «productivo».
La carrera armamentista de IA se acelera; la estructura regulatoria aún debe definirse
En marzo de este año, el gobierno de Trump nombró a 13 líderes de la industria tecnológica, incluidos el CEO de Meta, Zuckerberg, el CEO de Nvidia, Huang Renxun, y el fundador de Oracle, Larry Ellison, para integrar un nuevo comité asesor de IA de la Casa Blanca, y publicó un marco legislativo que exige que el Congreso establezca una política nacional unificada de IA, en lugar de regulaciones dispersas por estados.
La semana pasada, el Pentágono también anunció que llegó a un acuerdo con OpenAI, Google, Nvidia, SpaceX, Microsoft, Amazon y Reflection para desplegar las herramientas de IA de las empresas mencionadas en las redes secretas del Departamento de Defensa, con el fin de reforzar el análisis de datos, mejorar la conciencia situacional en el campo de batalla y ayudar a los soldados a tomar decisiones en entornos operativos complejos.
Esto demuestra que, independientemente de cómo evolucione la política de regulación, la dirección de ampliar las aplicaciones militares de la IA por parte del gobierno estadounidense ya es una ruta establecida. Sin embargo, la tarea más difícil para la Casa Blanca sigue siendo cómo equilibrar la promoción de la innovación con el control de riesgos.
¡Este artículo sobre Anthropic Mythos es demasiado potente! La Casa Blanca planea exigir que los nuevos modelos de IA pasen una revisión de seguridad gubernamental antes de su publicación. Aparece por primera vez en Cadena Noticias ABMedia.
Artículos relacionados
CoreWeave asegura un préstamo respaldado por GPU de 3,1 mil millones de dólares para OpenAI, Cohere
El CEO de Xbox pone fin al desarrollo del AI Copilot de la consola y, de forma gradual, detiene los servicios móviles
OpenAI lanza el gestor de anuncios de autoservicio y elimina el requisito de gasto mínimo $50K
El CEO de JPMorgan Chase dice que tiene sentido la inversión de 1 billón en centros de datos a largo plazo
Las startups chinas de IA sopesan una reestructuración de la empresa tras el revés de la adquisición de $2B Manus por parte de Meta
Principales editoriales demandan a Meta el 5 de mayo por datos de entrenamiento no autorizados de la IA Llama