Con el comercio de IA a IA esperado para aumentar la velocidad del dinero, los bancos centrales podrían encontrarse con dificultades para reaccionar ante la inflación a velocidad de máquina o los flash crashes. Los expertos sugieren que la regulación debe incrustarse directamente en el código para evitar fallas en cascada.
De acuerdo con un informe del Fondo Monetario Internacional (FMI) de abril de 2026, el mundo se está saliendo rápidamente de la era de los “pagos con un clic” y entrando en la era de “decidir para pagar”. Pero cuando los humanos salen del circuito, surge una pregunta importante: ¿pueden sobrevivir nuestros límites financieros ante una economía a velocidad de máquina?
El informe del FMI señala que la inteligencia artificial agentic (IA) está destinada a aumentar de forma radical la velocidad del dinero. Al eliminar la “fricción” humana, el capital circulará por la economía global a velocidades sin precedentes. Sydney Huang, CEO de Human API, sugiere que podríamos ver un aumento de 10 veces en la velocidad del dinero. Aunque suena a un milagro de productividad, se convierte en una pesadilla para los bancos centrales. La política monetaria tradicional se construye sobre el “lag”. Cuando un banco central sube las tasas de interés, pasan meses para que esa decisión se filtre a través de instituciones humanas. En una economía de IA a IA, ese retraso desaparece.
“Un aumento de 10 veces en la velocidad del dinero impulsado por el comercio de IA a IA requeriría que los reguladores adopten herramientas que operen a velocidad de máquina”, advierte Huang. Sin esas capacidades, un pico de inflación a velocidad de máquina o un flash crash global podría ocurrir antes de que un regulador humano reciba incluso una alerta en un panel.
Para prevenir fallas en cascada, Huang sostiene que los reguladores deben dejar de ser espectadores y convertirse en parte del código. “Esto incluye sistemas de monitoreo en tiempo real, cumplimiento programable incrustado directamente en la infraestructura financiera y disyuntores automáticos para prevenir fallas en cascada”, dijo. Esta visión se alinea con el Marco de Tres Capas propuesto por el FMI, que sugiere que la capa de autorización de cada transacción debe tener mandatos incrustados definidos por humanos.
Huang sugiere que “los reguladores también pueden necesitar expresar políticas en formatos legibles por máquinas que puedan aplicarse a nivel de transacción”. El comercio agentic también requiere disyuntores automáticos a nivel de transacción para que, cuando los agentes comiencen a exhibir un comportamiento altamente correlacionado, “fusibles” autónomos deban activarse para detener la reacción en cadena.
El informe del FMI destaca que “los sistemas agentic pueden interpretar objetivos y monitorear la actividad en tiempo real”. Esto significa que las comprobaciones de conozca a su cliente y contra el lavado de dinero se programan directamente en el ADN del agente de IA.
Quizás uno de los desafíos más complejos para los reguladores en esta nueva era sea el mercado “invisible”. En un mundo donde los agentes no usan lenguaje humano para coordinarse, surge la pregunta: ¿Cómo distinguimos entre un bot que simplemente optimiza y una flota de bots que conspira para fijar precios?
Huang señala que esto requiere un cambio de analizar la comunicación a analizar el comportamiento.
“Los reguladores necesitarán examinar patrones como acciones sincronizadas, dependencias compartidas de datos y anomalías estadísticas”, dijo. La solución podría estar en el “origen de la decisión”. Huang sugiere un futuro en el que se exija a los agentes aportar pruebas verificables de que las decisiones se tomaron de manera independiente bajo una política declarada. Al demostrar cómo se alcanzó una decisión, los agentes pueden mostrar que no estaban coordinándose en secreto con competidores.
Más allá de la regulación, está el asunto de cómo estos agentes realmente se comunican entre sí. Huang señala que la negociación segura de agente a agente requiere estándares universales para identidad, comunicación y aplicación.
“Los agentes deben poder verificar la identidad y la autorización de cada uno, operar dentro de marcos compartidos de negociación y adjuntar garantías verificables a sus acciones”, dijo Huang. Este cambio aleja la confianza de los contrapartes individuales y la coloca en las garantías del sistema. Al usar estándares emergentes como el protocolo de pagos de agentes (AP2) y el protocolo de contexto del modelo (MCP), las empresas pueden asegurar que un agente de la Compañía A negocie de forma segura con un agente de la Compañía B sin un intermediario propietario.
A medida que se delega más gobernanza en estos proxies digitales, surge un nuevo riesgo humano: la atrofia. Si un agente gestiona el tesoro de una empresa durante cinco años sin intervención humana, ¿el tesorero humano aún sabrá cómo manejar una crisis si el sistema se apaga?
Huang advierte que, a medida que la gobernanza se delega cada vez más, existe un riesgo serio de que los operadores humanos pierdan la capacidad de intervenir de manera efectiva. “Mantener la preparación operativa es tan importante como construir mecanismos de respaldo”, dijo.
Para mitigarlo, sostiene que los sistemas deben realizar simulacros regulares en los que los humanos toman el control e incorporar modos donde los humanos simulen acciones de agentes para comparar la lógica. También se necesita asegurar que el “interruptor de apagado” sea una vía practicada. “El objetivo”, dijo Huang, “es asegurar que la supervisión humana siga siendo funcional y practicada, en lugar de solo teórica.”
A medida que el mundo se acerca al mercado agentic proyectado de 236 mil millones de dólares para 2034, la definición de “participante de mercado” está cambiando. Ya no se trata solo de regular personas, sino de los llamados “super-individuos” impulsados por miles de bots autónomos.
La revolución de decidir para pagar ofrece un mundo de eficiencia sin fricción, pero exige un rediseño total de la arquitectura financiera global. Como lo expresa Huang, para gobernar una economía a velocidad de máquina, la propia ley debe volverse a velocidad de máquina. Si no logramos incrustar el human-in-the-loop a nivel arquitectónico, corremos el riesgo de construir una economía que se mueve demasiado rápido para que sus creadores puedan controlarla.