¿Cuánta energía consume cada pregunta a la IA?: como ver la televisión nueve segundos
Google desvela el gasto energético del uso continuado de su inteligencia artificial, Gemini


La inteligencia artificial (IA) se ha convertido en una herramienta habitual en tiempo récord. OpenAI presentó en noviembre de 2022 su robot conversacional (ChatGPT) y, en menos de tres años, se ha convertido en uno de los sitios web más visitados del mundo, cerca de Instagram y por delante de redes como X. Pero, ¿cuánto cuesta en términos energéticos cada una de las respuestas de la IA? Google ha presentado este jueves un dato inicial sobre su propio servicio: “Un mensaje de texto medio de Gemini usa 0,24 vatios por hora de energía, el equivalente a la electricidad necesaria a ver la televisión durante menos de nueve segundos”, afirma Savannah Goodman, directora de los Laboratorios de Energía Avanzados de la multinacional. Pero otros modelos de evaluación elevan este consumo y los investigadores consideran incompleta la información.
Entre accionar el teclado o el micrófono para solicitar una contestación a la IA y el casi inmediato resultado en la pantalla se produce una ingente labor de procesamiento en los centros de datos que requiere energía. El Lawrence Berkeley National Laboratory (LBNL) calcula que ahora supone el 4,4% de toda la que se demanda en un país como Estados Unidos.
Pero es solo el comienzo porque la generalización del uso y la constante mejora de estas herramientas de IA vaticinan un futuro insaciable. Según las nuevas proyecciones del LBNL, “para 2028, más de la mitad de la electricidad que va a los centros de datos se utilizará para IA”. El equivalente al 22% de toda la demanda doméstica.
Una de las razones es la carrera por la hegemonía de la IA a base del perfeccionamiento de los productos. Parthasarathy Ranganathan, vicepresidente de Google y jefe del área técnica y centros de datos explica: “Los tamaños de los modelos Gemini de hoy han aumentado de millones de parámetros a billones de parámetros [los datos que requiere la IA para entrenarse y precisar sus respuestas]. Se duplica cada tres meses y medio más o menos, lo que significa que se multiplica por 10 anualmente. En correspondencia con el aumento del tamaño del modelo, también hemos necesitado mayores cantidades de potencia de cómputo”.
La otra razón es el creciente uso individual, que hay que multiplicar por los millones de interacciones por segundo en el mundo. Aunque una consulta suponga entre 0,24 y 0,30 vatios por hora, 1.000 millones de estas cada día (menos de la mitad de las que se registran en la actualidad) durante un año significarían más de 109 gigavatios-hora de electricidad, suficiente para alimentar anualmente 10.400 hogares de un país desarrollado y casi 15.000 casas si la respuesta incluye imágenes.
Según un trabajo sobre cambio climático y energía publicado en MIT Technology Review, una interacción media de 15 preguntas, 10 peticiones de imágenes (GPT registra 78 millones diarias) y un vídeo de cinco segundos requiere 2,9 kilovatios por hora, equivalente al consumo de una bicicleta eléctrica para recorrer más de 150 kilómetros o encender el microondas más de tres horas y media.
Goodman no es pesimista y cree que la creciente carrera de la IA también se ha visto acompañada de mejoras en la eficiencia: “Durante los últimos 12 meses, redujimos la media de la energía y la huella de carbono por consulta a Gemini entre 33 y 44 veces, respectivamente”.
El modelo de seguimiento de gasto energético y contaminación Gemini no solo considera “el consumo activo de la máquina”, sino también, de acuerdo con Goodman, otros factores críticos como la energía de la infraestructura inactiva, uso de unidades de procesamiento, memoria de acceso, sobrecargas, enfriamiento… Sin embargo, una de las claves es el entrenamiento de los modelos. Según los datos del MIT, entrenar GPT-4 de OpenAI, que acaba de ser sustituido por la última versión tras dos años y medio, requirió más de 100 millones de euros y 50 gigavatios por hora de energía, suficiente para alimentar ciudades con poblaciones equivalentes a Sevilla, Amsterdam o San Francisco durante tres días o más.
Convertirse en herramienta fundamental para los usuarios es crucial para las empresas porque es donde descansa la rentabilidad de las plataformas. “Que una empresa gane dinero con un modelo solo sucede en la inferencia”, dice al MIT Technology Review Esha Choukse, investigadora de Microsoft Azure para ganar eficiencia en este proceso de interacción entre el consumidor y la IA. “Aquí es donde se gana dinero, porque se cobra por el uso: suscripciones, pagos por utilización de la API, integraciones en productos y otros servicios”, explica.
Además, la IA no ha sustituido otros servicios en línea también demandantes de energía, como YouTube, Facebook, las plataformas audiovisuales o los servicios en la nube, que también requieren centros de datos. Sin embargo, es la IA la que acapara el mayor consumo.
Las necesidades energéticas de esta carrera han llevado a Meta y Microsoft a fijarse en las centrales nucleares como alternativa ante las limitaciones de otras fuentes menos contaminantes, como la solar o eólica, por su intermitencia. “Los centros de datos de IA necesitan energía constante, las 24 horas del día, los siete días de la semana, los 365 días del año”, justifica al MIT Rahul Mewawalla, director ejecutivo de Mawson Infrastructure Group, que construye y mantiene centros de datos que admiten IA.
Pese a la importancia de conocer el consumo energético y la consiguiente huella medioambiental del mundo digital para intervenir en este proceso, los datos son parciales, inexactos y, en la mayoría de los casos, ocultos. “Son una caja negra total”, afirma al MIT Boris Gamazaychikov, jefe de sostenibilidad de IA en Salesforce e investigador, junto a Hugging Face, sobre transparencia en demanda energética. “Deberíamos dejar de intentar aplicar ingeniería inversa a los números basados en rumores y presionar más a estas empresas para que compartan los reales”, añade Sasha Luccioni, investigadora de IA y clima en Hugging Face y creadora de AI Energy Score, una clasificación de eficiencia energética.
Google ha dado un paso para mostrar los primeros datos de consumo y contaminación de su IA, aunque tanto Savannah como Ranganathan reconocen que no es el modelo definitivo, pero sí un camino abierto para el resto de empresas. Sus resultados coinciden con una estimación de IA Epoch AI sobre cuánta energía se usa para una sola consulta de ChatGPT: 0,3 vatios por hora.
Tu suscripción se está usando en otro dispositivo
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaTu suscripción se está usando en otro dispositivo y solo puedes acceder a EL PAÍS desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en EL PAÍS.
¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.
En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.
Sobre la firma
