La energía consumida por la inteligencia artificial de Google puede alcanzar niveles comparables a los de toda Irlanda. Lo leéis en el título, lo repito aquí: las cifras hablan por sí solas. A medida que la IA evoluciona y se expande, la industria se enfrenta a un desafío energético prohibitivo.
Cuanto más sigan las empresas de tecnología desarrollando e integrando la IA en una amplia gama de servicios, desde el simple motor de búsqueda hasta las aplicaciones más complejas, más crucial será el consumo de energía asociado. La pregunta es: ¿cómo salimos de esto?
El auge de los chips de IA personalizados
La tendencia es clara y creciente: las empresas de IA están desarrollando sus propios chips para satisfacer demandas de sistemas cada vez más exigentes. A los gigantes les gusta Google e Amazon ya tienen sus propios chips de IA personalizados. Y no son los únicos: persisten los rumores de que Microsoft puede presentar su chip hardware el próximo mes.
La propia Microsoft también ha invertido mucho en OpenAI, que, según algunas fuentes, se encuentra en las primeras etapas de desarrollo de sus propios chips o está considerando adquirir una empresa de semiconductores para fabricarlos.
Pero ¿qué significa todo esto para nuestro planeta? Significa que estará ahí un aumento significativo en la huella energética de la industria de la IA.
La huella energética de la industria de la IA
Lo diré de manera simple: si la IA generativa se integra en cada búsqueda de Google, la demanda de energía de la empresa alcanzará alturas increíbles. En un artículo publicado en Joule (lo enlazo aqui), los investigadores estiman que integrar un chatbot similar a ChatGPT en cada búsqueda que Google solicitaría hasta 512,820 servidores NVIDIA A100 HGX. ¿Traducido a números? significa más allá 4 millones de GPU. Hagamos cuentas: con una demanda energética de 6,5 kW por servidor, el consumo eléctrico diario sería de 80 GWh, el consumo anual sería de 29,2 TWh. Son los de toda una nación como Irlanda.
Cuando la IA “bebe” más
Las herramientas de IA tienen una fase inicial de entrenamiento seguido de un fase de inferencia. Si bien la fase de entrenamiento es la que consume más energía y ha sido el foco de la investigación sobre sostenibilidad de la IA hasta ahora, la fase de inferencia es cuando estas herramientas generan resultados basados en los datos con los que fueron entrenadas.
Esta fase, a menudo pasada por alto, merece absoluta atención. Porque esta fase aumentará drásticamente, y acabará superando a la anterior. Es necesario revisar las estimaciones del "hambre de energía" de varios sistemas de inteligencia artificial.
No podemos permitirnos ignorar la energía consumida por estos sistemas, hay que equilibrar el progreso tecnológico y la responsabilidad medioambiental: sólo así podremos dar a la tecnología una oportunidad real de mejorar nuestro futuro.