¿Cuánta energía consume la IA? Quienes saben no lo dicen.

“La gente suele sentir curiosidad por saber cuánta energía consume una consulta de ChatGPT”, escribió Sam Altman , director ejecutivo de OpenAI , en una extensa entrada de blog la semana pasada. La consulta promedio, escribió Altman, consume 0,34 vatios-hora: “Aproximadamente lo que consumiría un horno en poco más de un segundo, o una bombilla de alta eficiencia en un par de minutos”.
Para una empresa con 800 millones de usuarios activos semanales (y en aumento ), la pregunta de cuánta energía consumen todas estas búsquedas se vuelve cada vez más urgente. Sin embargo, los expertos afirman que la cifra de Altman no es significativa sin un contexto público más amplio de OpenAI sobre cómo llegó a este cálculo, incluyendo la definición de una consulta "promedio", si incluye o no la generación de imágenes y si Altman incluye o no el consumo de energía adicional, como el del entrenamiento de modelos de IA y la refrigeración de los servidores de OpenAI.
Como resultado, Sasha Luccioni, directora climática de la empresa de inteligencia artificial Hugging Face, no le da mucha importancia a la cifra de Altman. "Podría habérsela sacado de la manga", afirma. (OpenAI no respondió a una solicitud de más información sobre cómo llegó a esta cifra).
A medida que la IA se apodera de nuestras vidas, también promete transformar nuestros sistemas energéticos, impulsando las emisiones de carbono al mismo tiempo que luchamos contra el cambio climático. Ahora, un nuevo y creciente conjunto de investigaciones intenta cuantificar con precisión la cantidad de carbono que realmente emitimos con el uso de la IA.
Este esfuerzo se ve complicado por la escasa divulgación de información ambiental por parte de actores importantes como OpenAi. Un análisis presentado esta semana para revisión por pares por Luccioni y otros tres autores analiza la necesidad de una mayor transparencia ambiental en los modelos de IA. En el nuevo análisis de Luccioni, ella y sus colegas utilizan datos de OpenRouter , un sistema de clasificación de tráfico de modelos de lenguaje de gran tamaño (LLM), para descubrir que el 84 % del uso de LLM en mayo de 2025 correspondió a modelos sin divulgación ambiental. Esto significa que los consumidores, de forma abrumadora, eligen modelos con impactos ambientales completamente desconocidos.
“Me sorprende que se pueda comprar un coche y saber cuántos kilómetros por galón consume, pero usamos todas estas herramientas de IA a diario y no tenemos ni una sola métrica de eficiencia, ni factores de emisiones, nada”, dice Luccioni. “No es obligatorio ni regulatorio. Dada la situación actual de la crisis climática, debería ser una prioridad para los reguladores de todo el mundo”.
Como resultado de esta falta de transparencia, afirma Luccioni, el público se ve expuesto a estimaciones sin fundamento, pero que se dan por sentado. Quizás haya oído, por ejemplo, que una solicitud promedio de ChatGPT consume diez veces más energía que una búsqueda promedio en Google. Luccioni y sus colegas atribuyen esta afirmación a una declaración pública que John Hennessy, presidente de Alphabet, la empresa matriz de Google, hizo en 2023.
La afirmación de un miembro de la junta directiva de una empresa (Google) sobre el producto de otra con la que no tiene relación (OpenAI) es, en el mejor de los casos, poco convincente. Sin embargo, el análisis de Luccioni revela que esta cifra se ha repetido una y otra vez en la prensa y en informes políticos. (Mientras escribía este artículo, recibí una propuesta con esta misma estadística).
“La gente ha tomado un comentario improvisado y lo ha convertido en una estadística real que fundamenta las políticas y la forma en que la gente ve estos temas”, dice Luccioni. “El verdadero problema es que no tenemos cifras. Así que incluso los cálculos superficiales que la gente encuentra, tienden a tomarlos como el estándar de oro, pero ese no es el caso”.
Una forma de intentar obtener información más precisa tras bambalinas es trabajar con modelos de código abierto. Algunos gigantes tecnológicos, como OpenAI y Anthropic, mantienen sus modelos como privados, lo que significa que investigadores externos no pueden verificar de forma independiente su consumo energético. Sin embargo, otras empresas publican algunas partes de sus modelos, lo que permite a los investigadores medir sus emisiones con mayor precisión.
Un estudio publicado el jueves en la revista Frontiers of Communication evaluó 14 modelos de lenguaje grandes de código abierto, incluidos dos modelos Meta Llama y tres modelos DeepSeek, y descubrió que algunos usaban hasta un 50 por ciento más de energía que otros modelos en el conjunto de datos para responder a las indicaciones de los investigadores. Las 1000 indicaciones de referencia enviadas a los LLM incluían preguntas sobre temas como historia y filosofía de la escuela secundaria; la mitad de las preguntas estaban formateadas como de opción múltiple, con solo respuestas de una palabra disponibles, mientras que la otra mitad se envió como indicaciones abiertas, lo que permitía un formato más libre y respuestas más largas. Los modelos de razonamiento, descubrieron los investigadores, generaban muchos más tokens de pensamiento (medidas de razonamiento interno generadas en el modelo mientras producía su respuesta, que son un sello distintivo de un mayor uso de energía) que los modelos más concisos. Estos modelos, quizás como era de esperar, también fueron más precisos con temas complejos. (También tuvieron problemas con la brevedad: durante la fase de opción múltiple, por ejemplo, los modelos más complejos a menudo devolvían respuestas con múltiples tokens, a pesar de las instrucciones explícitas de responder solo dentro del rango de opciones proporcionadas).
Maximilian Dauner, estudiante de doctorado de la Universidad de Ciencias Aplicadas de Múnich y autor principal del estudio, espera que el uso de la IA evolucione para pensar en cómo usar de forma más eficiente modelos de bajo consumo energético para diferentes consultas. Imagina un proceso en el que las preguntas más pequeñas y sencillas se dirijan automáticamente a modelos de bajo consumo energético que, aun así, proporcionarán respuestas precisas. «Incluso los modelos más pequeños pueden lograr resultados excelentes en tareas más sencillas y no emiten una cantidad tan elevada de CO₂ durante el proceso», afirma.
Algunas empresas tecnológicas ya lo hacen. Google y Microsoft ya han declarado a WIRED que sus funciones de búsqueda utilizan modelos más pequeños siempre que es posible, lo que también puede implicar respuestas más rápidas para los usuarios. Sin embargo, en general, los proveedores de modelos han hecho poco para incentivar a los usuarios a consumir menos energía. La rapidez con la que un modelo responde a una pregunta, por ejemplo, tiene un gran impacto en su consumo energético, pero esto no se explica cuando se presentan los productos de IA a los usuarios, afirma Noman Bashir, investigador de Computing & Climate Impact del Consorcio de Clima y Sostenibilidad del MIT.
“El objetivo es proporcionar toda esta inferencia lo más rápido posible para que no abandones la plataforma”, afirma. “Si ChatGPT empieza a darte una respuesta de repente después de cinco minutos, recurrirás a otra herramienta que te dé una respuesta inmediata”.
Sin embargo, hay muchas otras consideraciones a tener en cuenta al calcular el consumo energético de consultas complejas de IA, ya que no es solo teórico: las condiciones en las que se ejecutan las consultas en el mundo real son importantes. Bashir señala que el hardware físico influye en el cálculo de las emisiones. Dauner realizó sus experimentos con una GPU Nvidia A100, pero la GPU H100 de Nvidia, diseñada específicamente para cargas de trabajo de IA y que, según la empresa , está ganando popularidad, consume mucha más energía.
La infraestructura física también influye en las emisiones. Los grandes centros de datos necesitan sistemas de refrigeración, iluminación y equipos de red, lo que supone un mayor consumo energético; suelen funcionar en ciclos diurnos, con un descanso nocturno cuando las consultas son menores. Además, están conectados a diferentes tipos de redes —unas alimentadas mayoritariamente por combustibles fósiles y otras por energías renovables— según su ubicación.
Bashir compara los estudios que analizan las emisiones de las consultas de IA sin tener en cuenta las necesidades del centro de datos con levantar un coche, pisar el acelerador y contar las revoluciones de una rueda como prueba de eficiencia de combustible. "No se tiene en cuenta que esta rueda tiene que llevar el coche y al pasajero", afirma.
Quizás lo más crucial para nuestra comprensión de las emisiones de la IA es que los modelos de código abierto, como los que Dauner utilizó en su estudio, representan solo una fracción de los modelos de IA que utilizan los consumidores actuales. Entrenar un modelo y actualizar los modelos implementados requiere una enorme cantidad de energía, cifras que muchas grandes empresas mantienen en secreto. No está claro, por ejemplo, si la estadística de la bombilla sobre ChatGPT de Altman de OpenAI considera toda la energía utilizada para entrenar los modelos que alimentan el chatbot. Sin mayor divulgación, el público simplemente pierde gran parte de la información necesaria para empezar a comprender el gran impacto de esta tecnología en el planeta.
“Si tuviera una varita mágica, haría obligatorio que cualquier empresa que ponga en producción un sistema de IA, en cualquier lugar del mundo y en cualquier aplicación, revele las cifras de carbono”, afirma Luccioni.
Paresh Dave colaboró con el reportaje.
wired