Los gigantes Cloud han empezado a ver comprometidos sus objetivos medioambientales. Durante las últimas semanas se ha producido una secuencia de anuncios cuestionando su capacidad para alcanzarlos, algo que corroboran las cifras de consumos energéticos y emisiones que recogen sus informes de sostenibilidad. Por ejemplo, Microsoft reconocía que sus emisiones habían aumentado un 30% durante los últimos tres años. La brecha entre lo que el gigante de Redmond había planificado y las emisiones que realmente produce se ensancha cada año, alejándose cada día que pasa de su objetivo. Por su parte Google, durante los últimos cinco años ha incrementado sus emisiones un 48%, aunque según su informe de sostenibilidad una parte importante de su huella depende de su cadena de suministro, entre los que se encuentran sus proveedores de hardware de infraestructura como servidores o equipos de red. Por último, Amazon es el único que ha conseguido reducir sus emisiones un 3% el año pasado, pero ya ha declarado que con el desarrollo de la IA no ve factible seguir en esa senda. En este punto conviene hacer una aclaración: no existe un criterio uniforme para medir el impacto ambiental y los porcentajes que publica cada uno de ellos no son comparables entre sí.
El inevitable cambio de tendencia en el consumo energético de los centros de datos.
Durante la década de 2010, el consumo energético de los centros de datos consiguió mantenerse estable. Las mejoras en la eficiencia energética, especialmente desde 2015, con ahorros de hasta un 18% del consumo, permitieron absorber el incremento de datos y cargas de trabajo. La industria del data center se enorgullecía de una caída sostenida del PUE, una medida de eficiencia energética que relaciona la cantidad dedicada a alimentar los sistemas informáticos, con la que consume toda la instalación, que incluye capítulos como la iluminación o la refrigeración de las salas.
Sin embargo, desde principios de esta década, cada año es más difícil generar nuevas eficiencias. Actualmente, los ahorros energéticos son inferiores al 3%, muy lejos de compensar el crecimiento exponencial de la demanda, impulsada tanto por la adopción masiva de servicios cloud como por la explosión de la IA.
Como resultado, el consumo energético de los centros de datos sigue aumentando. Goldman Sachs estima que, para finales de esta década, su demanda de energía a nivel mundial habrá aumentado en un 160%. De hecho, su consumo está creciendo más rápido que en otros sectores, lo que hará que su participación en el consumo energético global se duplique en dos años, pasando de menos del 2% al 4%.
La carrera por dominar la IA desbarata los planes medioambientales de los gigantes tecnológicos.
Con el inesperado aumento del consumo de energía, las cuentas medioambientales ya no les cuadran a los proveedores de cloud. Un servidor en un centro de datos dedicado a dar servicios en la nube consume diez veces menos energía que uno dedicado a la IA, que utiliza chips de última generación como el H100 de Nvidia. Estos chips, aunque están diseñados para ser muy eficientes, generan más calor y requieren mayores niveles de refrigeración. De hecho, para dar respuesta a estos nuevos requerimientos, están surgiendo centros de datos especializados en IA, con mayor capacidad de suministro eléctrico y sistemas de refrigeración más potentes.
Desde una perspectiva de uso de la IA generativa, hay que separar el consumo energético según dos etapas bien diferenciadas. La primera, cuando se entrenan los modelos, es muy intensiva en cómputo, y cada nueva generación de estos requiere una mayor inversión. Por ejemplo, mientras que ChatGPT 4 necesitó una inversión en cómputo de 78 millones de dólares, el de Google Gemini Ultra ascendió a 192 millones. Por otro lado, una vez entrenado el modelo, en la etapa de inferencia, o si se prefiere cuando se utiliza, las necesidades de energía también se están multiplicando. Según estimaciones de la Agencia Internacional de la Energía, realizar una consulta en un buscador convencional como Google consume una décima parte de hacerla a través de ChatGPT. Aquí el problema es que el número de usuarios es cada vez mayor y la suma de todos ellos genera un consumo energético que está creciendo de forma incontrolada.
Y si las cosas fueran diferentes en el medio plazo, convirtiendo la IA en parte de la solución.
Hace unos años, Microsoft sorprendió al mercado con la idea de alcanzar emisiones negativas. Esta consistía en mostrar cómo su tecnología podría utilizarse para descarbonizar la economía. Así, al igual que la IA aumenta el consumo energético, también es una herramienta esencial para reducir el impacto de diversas actividades: minimizando el uso de fertilizantes en la agricultura mediante mejores predicciones meteorológicas, optimizando rutas logísticas en el transporte tanto de mercancías como de pasajeros, o mejorando la gestión del consumo y la generación de energía renovable en la red eléctrica. La lista de casos de uso es extensa. Para identificar los más prometedores, Microsoft lanzó una iniciativa financiada con 50 millones de dólares llamada IA for Earth.
Por otro lado, también hay que tener en cuenta la posibilidad de que se produzcan innovaciones disruptivas para solucionar los problemas que genera una infraestructura digital hambrienta de energía. Por ejemplo, investigadores de la agencia inglesa de ARIA (Advanced Research and Invention Agency) están explorando el uso de nuevos materiales para reducir dramáticamente las demandas energéticas de la computación. En palabras de Ilan Gur, director ejecutivo de esta agencia, «Si tiene éxito, este programa superará los límites actuales de la potencia y eficiencia de la computación, allanando el camino para una IA globalmente accesible, segura y transformadora».
Por último, tampoco hay que olvidar los últimos avances en las tecnologías de generación eléctrica para satisfacer eficientemente la creciente demanda. Por ejemplo, una eléctrica noruega (Norsk Kjernekraft) planea construir pequeños reactores nucleares modulares (SMR) para centros de datos, con el objetivo de aliviar la presión sobre la red eléctrica del país. Con estos reactores se pretende proporcionar energía in situ, cerca de los centros de datos, evitando la necesidad de pasar por la red de transporte y distribución. Además, el calor residual generado por los reactores será aprovechado ya sea en procesos de fabricación de terceros o en sistemas de calefacción urbana.
Estos ejemplos ilustran la necesidad de buscar un equilibrio entre el corto y el medio plazo. Acelerar el uso de la IA conllevará un empeoramiento de las emisiones de los gigantes tecnológicos, pero al mismo tiempo impulsa la descarbonización de otros sectores en el medio plazo, convirtiéndose en una herramienta esencial para combatir el cambio climático. Quizá la IA haga buena la máxima de que, para mejorar, primero hay que empeorar, que es precisamente donde nos encontramos.