12 de marzo, noticias: El cofundador de Ethereum, Vitalik Buterin, respondió recientemente a las afirmaciones de que donó una gran cantidad de fondos al Future of Life Institute (FLI) y participó en acciones políticas relacionadas con la inteligencia artificial. Explicó en detalle el contexto del evento de donación de SHIB y aclaró las diferencias en su postura respecto a la gestión de riesgos de la IA con esa organización.
Vitalik Buterin recordó que en 2021 recibió de repente una gran cantidad de SHIB y otros tokens Meme, que algunos proyectos enviaron a su dirección para marketing, con la mitad de su suministro. En ese momento, estos tokens aumentaron rápidamente de valor, alcanzando un valor en libros de más de mil millones de dólares. Por temor a una burbuja en el mercado, rápidamente gestionó esos activos, convirtiendo la mayor parte en Ethereum y donando a varias instituciones, incluyendo 50 millones de dólares a GiveWell.
De los SHIB restantes, la mitad fue donada a CryptoRelief para apoyar infraestructura médica en India, y la otra mitad fue donada al Future of Life Institute. En ese momento, esa organización le mostró un plan de investigación a largo plazo que abarcaba bioseguridad, riesgos nucleares y gestión de riesgos de inteligencia artificial. Vitalik esperaba que estos tokens solo pudieran venderse por unos 10 a 25 millones de dólares, pero finalmente, la organización logró obtener aproximadamente 500 millones de dólares vendiendo los tokens.
Luego, el Future of Life Institute fue ajustando su enfoque, destinando más recursos a acciones culturales y políticas relacionadas con la gobernanza de la IA. Al respecto, Vitalik expresó su comprensión ante la preocupación por el rápido desarrollo de la inteligencia artificial general, pero también manifestó su inquietud por que acciones políticas a gran escala puedan tener consecuencias imprevistas, como la concentración excesiva de poder o conflictos regulatorios globales.
Vitalik enfatizó que prefiere una vía tecnológica de “desarrollo y adaptación”, mediante la apertura de tecnologías y la creación de infraestructuras seguras para reducir riesgos futuros. Ejemplos de ello son los sistemas de monitoreo del aire, tecnologías de detección temprana de pandemias y hardware verificable y seguro. Recientemente, unos 40 millones de dólares se destinaron a apoyar investigaciones en hardware de computación segura y ciberseguridad, para garantizar que los sistemas futuros sean más confiables frente a amenazas de IA.
A pesar de las diferencias de opinión, Vitalik sigue reconociendo algunas iniciativas del Future of Life Institute, como la “Declaración en favor de la IA humanista”, que busca promover la cooperación entre diferentes regiones y posturas políticas para evitar una concentración excesiva de poder en la IA. Él espera que esa organización mantenga una postura prudente y racional en la gobernanza de la inteligencia artificial para reducir riesgos potenciales.