Google DeepMind CEO Demis Hassabis y el CEO de Anthropic Dario Amodei participaron el 20/1 en el Foro Económico Mundial (WEF) en Davos, Suiza, donde dialogaron sobre el futuro de la inteligencia artificial general (AGI). La conversación fue racional y amistosa, pero en tres temas clave, mostraron diferencias evidentes.
¿Qué es la inteligencia artificial general (AGI)?
AGI se refiere a un tipo hipotético de inteligencia artificial capaz de entender, aprender y realizar todo tipo de tareas racionales que los humanos pueden hacer, con el objetivo de simular las capacidades cognitivas del cerebro humano. A diferencia de la mayoría de las IA actuales, que solo pueden realizar tareas específicas, la AGI posee una capacidad de generalización transversal, puede aplicar conocimientos adquiridos en un campo a situaciones completamente nuevas, y también cuenta con conocimientos básicos y comprensión del mundo similares a los humanos, para razonar y tomar decisiones.
El desarrollo de la AGI depende de investigaciones interdisciplinarias en ciencias de la computación, neurociencia y psicología cognitiva. Actualmente, la AGI real aún no existe, pero las investigaciones y desarrollos relacionados continúan en marcha.
¿CUándo se logrará la AGI? Opiniones divergentes entre los CEO de DeepMind y Anthropic
Amodei, CEO de Anthropic, reiteró su cronograma propuesto el año pasado, sugiriendo que en 2026-2027 podría aparecer una IA que alcance niveles humanos en la mayoría de los ámbitos, con una “calidad equivalente a premios Nobel”.
“Siempre que la IA pueda programar y realizar investigaciones en IA, podrá diseñar su próxima generación de modelos, creando un ciclo de auto-mejoramiento acelerado. Una vez que este ciclo comience a funcionar sin problemas, la AGI tendrá una explosión exponencial.”
Incluso afirmó que en Anthropic ya hay ingenieros que casi no programan ellos mismos, sino que dejan que los modelos generen resultados que luego revisan humanos, mostrando que este camino ya está en marcha.
Por otro lado, Hassabis, CEO de Google DeepMind, mantiene una postura más conservadora, considerando que hay un 50% de probabilidad de que aparezca una AGI completa antes de fin de siglo. Cree que, si bien áreas como programación y matemáticas son más fáciles de automatizar rápidamente, las ciencias naturales, la creación teórica y la formulación de buenas preguntas aún carecen de habilidades clave. Además, los ciclos de verificación son largos y las fricciones en el mundo físico dificultan una auto-mejora rápida.
¿Con qué rapidez impactará la IA en el empleo? Amodei advierte urgencia, Hassabis enfatiza la amortiguación
En temas laborales, también hay diferencias claras. Amodei ha declarado públicamente que en 1 a 5 años, la mitad de los trabajos administrativos básicos podrían desaparecer. En el foro, explicó que, aunque los datos laborales aún no reflejan completamente esto, ya se observan impactos preliminares en programación e ingeniería. La demanda de mano de obra en niveles iniciales y medios probablemente disminuirá primero en su ritmo, antes de una sustitución más evidente. La principal preocupación de Amodei es que el progreso de la IA es exponencial, mientras que la adaptación social es lineal, lo que generará una brecha inevitable.
Hassabis, en cambio, adopta una visión más cercana a la economía tradicional. Cree que en el corto plazo se repetirá el patrón de revoluciones tecnológicas pasadas: “Algunos trabajos desaparecerán, pero también surgirán otros nuevos y de mayor valor, y los puestos de entrada y pasantías serán los primeros afectados.”
Pero también destaca que las herramientas de IA actuales son “casi accesibles para todos”, y que los jóvenes que las dominen rápidamente podrían acumular experiencia más rápido que con las prácticas tradicionales.
¿Debería reducirse la velocidad del desarrollo de la IA? Amodei aboga por una desaceleración, Hassabis busca avanzar con cautela
En cuanto a riesgos y geopolítica, sus diferencias son aún más evidentes. Amodei expresó claramente su deseo de que el mundo vaya más despacio en el desarrollo de la IA, para dar tiempo a establecer mecanismos de seguridad y gobernanza. Propone limitar la exportación de chips avanzados, considerando que la estrategia de la IA se acerca a la de armas nucleares, y que no debe evaluarse solo desde una lógica comercial o de cadena de suministro. Utilizó la metáfora del comercio nuclear, diciendo que no se puede sacrificar riesgos a largo plazo por beneficios a corto plazo.
Hassabis, en cambio, no está en contra de que “ir más despacio” sea preferible, pero enfatiza que las condiciones actuales, como la competencia geopolítica y empresarial, hacen muy difícil realmente frenar. En este contexto, la cuestión más práctica no es solo desacelerar, sino:
“¿Cómo establecer mecanismos de seguridad en medio de una carrera acelerada por la IA para gestionar los riesgos?”
Diferencias en el consenso que determinan el ritmo futuro de la IA
Es importante notar que, en muchas direcciones principales, ambos están de acuerdo: consideran que la IA cambiará el mundo de manera significativa, reconocen los riesgos de seguridad y rechazan la visión apocalíptica de una extinción inminente. Pero en cuanto a la velocidad, sus respuestas difieren claramente. Estas diferencias reflejan precisamente los temas centrales de la era de la IA: ¿deberíamos impulsar la AGI a toda velocidad o controlarla y avanzar con cautela?
(La IA ya está empezando a actuar por sí misma, explica Anthropic: ¿cómo debe la humanidad evaluar si lo hace bien o mal?)
Este artículo fue originalmente publicado en la noticia de ABMedia sobre el Foro de Davos | ¿Diferencias en el desarrollo de la AGI? Las tres principales posturas de Google DeepMind y Anthropic.