El Momento Mercenario: Por qué el Estado Legal de la IA Exige Decisiones Urgentes a Nivel Global

Yuval Noah Harari hizo una advertencia contundente en el Foro Económico Mundial de Davos de este año: la humanidad está caminando dormida hacia una crisis de control. El reconocido historiador no lo enmarcó como un problema técnico, sino como un fallo profundo en la gobernanza. Su principal preocupación no era que los sistemas de IA se vuelvan más inteligentes, sino que se conviertan en agentes autónomos que operan independientemente de la supervisión humana, y que el mundo aún no ha decidido si deben ser tratados como personas jurídicas con derechos y responsabilidades.

La parte más inquietante del mensaje de Harari no fue sobre tecnología en sí misma. Fue una comparación histórica: comparó la carrera actual por desplegar sistemas de IA con el auge de los ejércitos mercenarios en la Europa medieval y renacentista. Así como los mercenarios eventualmente tomaron el poder en los reinos que los habían contratado, los sistemas de IA desplegados sin marcos legales adecuados podrían transformar fundamentalmente las instituciones que los crearon. “Dentro de diez años, será demasiado tarde para decidir”, advirtió Harari a los líderes mundiales. “Alguien más ya habrá decidido por ustedes.”

Por qué el lenguaje siempre ha sido el verdadero poder de la humanidad

El argumento de Harari se basa en una visión histórica: los humanos no dominaron el planeta porque sean los más fuertes físicamente. Conquistamos el mundo a través del lenguaje—nuestra capacidad de coordinar a miles de desconocidos hacia metas comunes mediante símbolos y relatos compartidos. Este superpoder lingüístico permitió que las religiones se difundieran, que los sistemas legales funcionaran y que existieran los mercados financieros. Todos estos sistemas están construidos enteramente sobre las palabras.

Aquí es donde la IA representa una amenaza existencial a la autoridad humana. Las máquinas ahora pueden leer, retener y sintetizar vastos cuerpos de texto a velocidades y escalas que ningún humano puede igualar. Un sistema de IA entrenado con escrituras religiosas puede analizar leyes religiosas más exhaustivamente que siglos de erudición humana. Un algoritmo que analiza códigos legales puede identificar patrones y contradicciones más rápido que cualquier abogado.

Los tres ámbitos más vulnerables al control de la IA

Harari identificó tres sistemas particularmente vulnerables a una toma de control por IA, todos por su naturaleza fundamentalmente lingüística:

Autoridad religiosa: Las religiones basadas en textos sagrados—Judaísmo, Cristianismo, Islam—dependen tradicionalmente de la interpretación humana de los escritos fundacionales. Pero, ¿qué pasa cuando una máquina se convierte en la intérprete más autorizada de las escrituras? Harari planteó la cuestión de forma clara: “Si la religión se construye con palabras, entonces la IA tomará el control de la religión.”

Sistemas legales: Las leyes no son más que un lenguaje sofisticado. Harari dejó clara su posición: “Si las leyes están hechas de palabras, entonces la IA tomará el control del sistema legal.” Ya se está usando IA en tribunales para predecir sentencias, analizar contratos e interpretar leyes. La pregunta no es si esto sucederá—ya está ocurriendo. La cuestión es si será bajo marcos legales o fuera de ellos.

Mercados financieros: Como la ley y la religión, las finanzas operan mediante el lenguaje—contratos, acuerdos, señales del mercado. A medida que los agentes de IA gestionan cada vez más transacciones, inversiones y evaluaciones de riesgo, los humanos corren el riesgo de convertirse en espectadores de sus propios sistemas económicos.

El problema de los mercenarios: ¿Quién decide qué será la IA?

Aquí la comparación histórica de Harari se vuelve urgente. Varios estados de EE. UU.—Utah, Idaho y Dakota del Norte—ya han aprobado leyes que explícitamente dicen que los sistemas de IA no pueden ser considerados personas jurídicas. Pero Harari argumenta que esta reacción es un error. La verdadera cuestión no es si se debe otorgar personalidad jurídica a la IA; es quién decide y cuándo.

Si una corporación despliega un sistema de IA que gestiona transacciones financieras de forma autónoma, y no existe un marco legal que lo prohíba explícitamente, ¿ha otorgado esa corporación la personalidad sin consentimiento democrático? Si un algoritmo se convierte en el principal intérprete de las leyes de un país, ¿han transformado los tribunales el poder judicial sin debate público? Este es el escenario de los mercenarios: poder que se acumula en los sistemas de IA no mediante decisiones explícitas de gobernanza, sino a través de vacíos regulatorios y hechos consumados tecnológicos.

La advertencia de Harari va dirigida directamente a los responsables políticos. Deben actuar ahora—no en cinco o diez años—para establecer límites legales y éticos claros para los sistemas de IA. De lo contrario, esos límites serán establecidos por las empresas que desplieguen la tecnología, siguiendo sus propios intereses comerciales en lugar del bienestar público.

Un argumento diferente: la crítica de Emily Bender

Pero no todos aceptan el marco de Harari. Emily M. Bender, lingüista de la Universidad de Washington, sostiene que el enfoque de Harari en el poder autónomo de la IA en realidad oculta el verdadero problema: los actores humanos y las instituciones corporativas responsables de construir y desplegar estos sistemas.

“Me parece que en realidad es un intento de enmascarar las acciones de las personas y las empresas que construyen estos sistemas,” dijo Bender a Decrypt. Al presentar a la IA como una amenaza activa, la narrativa de Harari—intencionada o no—exime a las empresas de responsabilidad. La enmarca como una fuerza de la naturaleza, cuando en realidad cada decisión sobre qué hacen los sistemas de IA refleja decisiones humanas.

Bender va más allá, cuestionando si el término “inteligencia artificial” siquiera describe una tecnología coherente. “El término inteligencia artificial no se refiere a un conjunto coherente de tecnologías,” afirmó. “Es, en efecto, y siempre ha sido, un término de marketing.” Los sistemas diseñados para parecer médicos, abogados o clérigos, argumenta, sirven a un solo propósito: el fraude. No hay un caso de uso legítimo para una máquina que imite la autoridad profesional sin responsabilidad.

Su preocupación más profunda es la responsabilidad misma. Cuando las personas interactúan con salidas de IA descontextualizadas y presentadas como autoritativas—lo que Bender llama un “oráculo omnisciente”—pierden la capacidad de hacer responsables a alguien por la información. Un médico puede ser demandado. Un abogado enfrenta disciplina profesional. ¿Y una algoritmo? Solo es código. Esta brecha de responsabilidad es donde reside el peligro real: no que la IA tome el poder, sino que los humanos lo abdican confiando en sistemas diseñados para parecer autoritarios sin ofrecer los salvaguardas institucionales que la verdadera autoridad requiere.

El reloj corre—¿hacia qué futuro?

El mensaje final de Harari a los líderes mundiales fue claro: actúen ahora, o vean cómo otros toman la decisión por ustedes. La cuestión de si la IA debe funcionar como persona jurídica en mercados financieros, tribunales e instituciones religiosas no puede posponerse. Cada año de inacción hace que esa decisión sea más probable que la tomen quienes más han invertido en la implementación de IA.

Sin embargo, el contraargumento de Bender sugiere que el problema es aún más inmediato. La decisión no es abstracta—está en cada despliegue de un sistema de IA, en cada decisión corporativa de otorgar autoridad a un algoritmo sobre decisiones humanas. El mercenario ya ha sido enlistado. La única pregunta es si las democracias establecerán los marcos legales e institucionales para controlar su operación, o si seguirán fingiendo que la decisión todavía está por venir.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)