La rápida evolución de la inteligencia artificial ha puesto en el centro de atención mundial los problemas de consumo de agua y energía en los centros de datos. Ante las dudas del público sobre la afirmación de que cada consulta a los sistemas de IA consume una gran cantidad de recursos hídricos, el CEO de OpenAI, Sam Altman, rechazó recientemente estas afirmaciones como “totalmente falsas”, enfatizando que los rumores no tienen relación con la realidad. Sin embargo, también admitió que, a medida que aumenta el uso global de IA, el consumo energético general es un desafío que debe ser abordado.
En una entrevista junto a la conferencia AI Impact en India, Altman respondió de manera completa a las preocupaciones sobre el uso de recursos en la IA, generando un intenso debate en el sector tecnológico y en plataformas sociales.
Altman refuta la afirmación de que “cada consulta consume varios galones de agua”
Durante la entrevista, Altman señaló que la afirmación que circula en internet de que “cada consulta a ChatGPT consume varios galones de agua” es “totalmente falsa y absurda”, y afirmó que estos datos “no tienen ninguna relación con la realidad”.
Es cierto que los centros de datos han dependido durante mucho tiempo de sistemas de enfriamiento por agua para evitar el sobrecalentamiento de los equipos electrónicos, pero con los avances en tecnología de enfriamiento, muchas nuevas generaciones de centros de datos han reducido progresivamente su dependencia del agua, e incluso algunos operan completamente sin enfriamiento por agua.
No obstante, a pesar de las mejoras en eficiencia, la tendencia general no puede ser ignorada. Según un informe publicado el mes pasado por la compañía de tecnología del agua Xylem y Global Water Intelligence, a medida que la demanda mundial de computación continúa creciendo, en los próximos 25 años se espera que el volumen de agua utilizado para enfriar centros de datos se triplique, lo que sin duda ejercerá presión sobre los recursos hídricos.
Las declaraciones de Altman muestran que considera que la afirmación de que “cada consulta consume agua” ha sido exagerada, aunque el requerimiento de recursos para la infraestructura en general sigue siendo una cuestión que requiere evaluación racional.
El consumo de energía en IA es el verdadero problema
En comparación con las controversias sobre recursos hídricos, Altman fue más directo al señalar que el consumo de energía es el foco de crítica más razonable respecto al desarrollo de la IA.
Él afirmó: “No se trata de cada consulta individual, sino del consumo total — porque el mundo está usando IA a gran escala. Necesitamos cambiar rápidamente a energía nuclear, eólica y solar.”
Estas palabras resaltan la realidad que enfrenta la industria de la IA: a medida que aumentan el tamaño de los modelos y la variedad de aplicaciones, la demanda de computación crece exponencialmente, y la oferta de electricidad debe aumentar en consecuencia. Encontrar un equilibrio entre impulsar la innovación y alcanzar metas de reducción de emisiones se ha convertido en un desafío que enfrentan tanto gobiernos como empresas.
Según un informe del Fondo Monetario Internacional (FMI) de mayo de este año, el consumo eléctrico de los centros de datos en 2023 ya alcanzó niveles comparables al consumo total de electricidad de países como Alemania o Francia. Este dato, que coincide con poco tiempo después del lanzamiento de ChatGPT por parte de OpenAI, muestra que la demanda de computación generada por la IA generativa está creciendo a un ritmo sorprendente.
¿IA versus cerebro humano? Altman refuta la opinión de Bill Gates
En la entrevista, también se le preguntó acerca de la opinión previa del fundador de Microsoft, Bill Gates. Gates había mencionado que el cerebro humano es extremadamente eficiente en términos energéticos, lo que sugiere que la IA también podría volverse más eficiente con el tiempo.
Altman respondió desde otra perspectiva. Señaló que muchas discusiones sobre el consumo energético de la IA se centran en la fase de “entrenamiento” del modelo, que consume una gran cantidad de energía, pero se olvida el tiempo y los recursos necesarios para entrenar a un ser humano.
“Entrenar un modelo de IA ciertamente requiere mucha energía, pero entrenar a una persona también consume mucha energía — eso es 20 años de vida, además de toda la comida que ingiere durante ese tiempo”, explicó Altman.
Además, afirmó que una comparación más justa sería entre “la energía necesaria para responder una sola vez después del entrenamiento” y “la energía que un humano necesita para responder la misma pregunta”. Bajo esta perspectiva, considera que la IA podría ya estar igualando o incluso superando en eficiencia energética a los humanos.
El proceso que Altman menciona, conocido en el campo de la IA como “inferencia”, es el uso de un modelo entrenado para generar nuevas salidas. Generalmente, la inferencia requiere mucho menos electricidad que el entrenamiento.
Controversia en las redes: ¿pueden los humanos y la tecnología ser comparados en igualdad de condiciones?
La afirmación de Altman de comparar la eficiencia energética de la IA con la de los humanos también generó controversia en plataformas sociales.
Sridhar Vembu, cofundador y científico jefe de la empresa de software Zoho en India, publicó en X (antes Twitter) que “no quiero ver un mundo que iguale la tecnología con los seres humanos”.
En un contexto donde la rápida evolución de la IA generativa y su capacidad para reemplazar ciertos trabajos humanos generan ansiedad, este tipo de comparaciones claramente tocan temas éticos y sociales más profundos.
Resistencia a la expansión de centros de datos a nivel global
A medida que gobiernos y empresas tecnológicas invierten miles de millones de dólares en la construcción de nuevos centros de datos para soportar la demanda de computación de IA, las voces en contra también aumentan.
Algunos gobiernos están simplificando los procesos de aprobación para acelerar la puesta en marcha de nuevas fuentes de energía, pero los grupos ambientalistas advierten que esto podría entrar en conflicto con los objetivos globales de cero emisiones netas de carbono.
En Estados Unidos, algunas comunidades locales han expresado preocupación por los proyectos de grandes centros de datos, argumentando que podrían ejercer presión sobre la red eléctrica y elevar los precios de la electricidad. La semana pasada, el ayuntamiento de San Marcos, en Texas, rechazó un proyecto de construcción de un centro de datos valorado en 1.500 millones de dólares, que había enfrentado fuerte oposición pública durante meses.
Frente a estas resistencias, Altman y otros líderes tecnológicos abogan por que los centros de datos dependan cada vez más de fuentes de energía renovable y nuclear.
Las declaraciones recientes de Altman reflejan la tensión central en la era de la IA generativa: el progreso tecnológico frente al consumo de recursos.
Por un lado, niega las afirmaciones exageradas sobre el consumo de agua; por otro, reconoce que la demanda energética seguirá aumentando a medida que la IA se generalice, y llama a acelerar la transición energética. Dado que el consumo eléctrico de los centros de datos ya se acerca a niveles nacionales, el próximo paso en la industria de la IA no solo será una competencia por el rendimiento de los modelos, sino también una carrera por transformar la estructura energética. Desde la aparición de ChatGPT, la IA se ha convertido en una infraestructura clave de la economía digital. La pregunta a largo plazo será si se logrará equilibrar la innovación con la sostenibilidad.