El uso de herramientas de inteligencia artificial (IA) como ChatGPT es cada vez más habitual en España y Europa, tanto en ámbitos profesionales como personales. La mayoría de usuarios no se plantea qué recursos consume cada consulta, pero detrás de cada texto generado hay una infraestructura energética y de recursos naturales que tiene consecuencias medibles para el medio ambiente. En este artículo analizamos en profundidad datos técnicos sobre el coste energético, de agua y de emisiones de carbono asociados a cada prompt (entrada de texto), cómo se traduce esto a la escala de millones de consultas diarias, qué ocurre en España y en la Unión Europea y qué medidas se están explorando para mitigar estos impactos. Incluimos también referencias a estudios internacionales y explicaciones cuantitativas basadas en investigaciones recientes.
Cómo se mide el coste de una consulta y por qué importa
Cada vez que un usuario envía una consulta a sistemas como ChatGPT, se produce una serie de cálculos complejos en grandes centros de datos que alojan servidores especializados. Según datos recientes, OpenAI procesa alrededor de 25 000 millones de prompts al día a nivel global, y cada uno de ellos requiere una cierta cantidad de electricidad para ser atendido y producir una respuesta. La cifra estimada por EarthDay.org sitúa ese consumo de energía en aproximadamente 0,34 vatios-hora por consulta (lo que equivaldría a mantener encendido por unos minutos una bombilla LED estándar).
Si bien 0,34 Wh por consulta parece muy poco a nivel individual, multiplicarlo por miles de millones de interacciones diarias resulta en un uso energético considerable. Por ejemplo, mil millones de consultas podrían suponer varios cientos de megavatios-hora al día, con el consiguiente gasto en recursos energéticos y emisiones de gases de efecto invernadero. Esta dinámica se vuelve especialmente importante cuando se proyecta su crecimiento en los próximos años, con estimaciones de que la demanda de energía de centros de datos en Europa podría llegar a 150 TWh anuales hacia 2026, impulsada en parte por las necesidades de IA.
Además de la electricidad, otro recurso crítico que interviene es el agua, utilizada principalmente para la refrigeración de equipos. Estudios recientes señalan que los sistemas de refrigeración basados en agua pueden requerir hasta 1–2 litros de agua por cada kilovatio-hora consumido, dependiendo de las tecnologías y el clima local. Esta demanda de agua se suma a las cargas ya existentes sobre los recursos hídricos en ciertas regiones, y puede ser un factor limitante en zonas con estrés hídrico.
España y Europa: consumo y regulaciones
En España, informes del Ministerio de Ciencia indican que el uso de ChatGPT y servicios de IA consumió aproximadamente 15 millones de kilovatios-hora de electricidad el año pasado, equivalente al consumo de unos 4 000 hogares en un año. Ese mismo informe estima que se emplearon cerca de 112 millones de litros de agua solo para las operaciones asociadas, comparables a mantener 48 piscinas olímpicas llenas.
La Unión Europea, por su parte, ha estudiado el impacto total de la digitalización en su huella medioambiental y proyecta que el consumo energético del sector de centros de datos —no solo IA— podría casi triplicarse desde los niveles actuales hasta más de 150 TWh para finales de la década si no se implementan cambios significativos. Este crecimiento refleja tanto la mayor penetración de servicios digitales como la intensificación de cargas de trabajo computacional, entre las que se incluye el despliegue de modelos de IA cada vez más complejos.
Desde el punto de vista regulatorio, existen iniciativas dentro de la UE para fomentar la eficiencia energética y la implantación de energías renovables en los centros de datos, con objetivos que buscan alcanzar neutralidad climática en estas instalaciones de cara a 2030. Estas medidas se apoyan en planes de mejora de la eficiencia de hardware, como chips especializados más eficientes y arquitecturas optimizadas que reducen el consumo por operación, así como en el uso de energías limpias para alimentar estos centros.
Detalles técnicos: ¿cuánta energía y emisiones genera todo esto?
Para poner en contexto los números: un solo prompt de IA generativa puede usar hasta unos 0,3–0,34 Wh de electricidad, pero modelos más avanzados o consultas que requieren cálculos extensivos pueden consumir mucho más, incluso varias decenas de vatios-hora por interacción según algunas estimaciones de consumo extendido de IA.
El entrenamiento de estos modelos, que es la etapa inicial de aprendizaje automático donde se alimenta el sistema con enormes conjuntos de datos, es aún más intensivo. Un estudio encontró que entrenar un modelo grande puede consumir más de 1 287 MWh, generando una huella de carbono que equivale a decenas de vuelos de corta distancia en Europa. Aunque el uso (inferencias) supone una parte menor que la fase de entrenamiento, es esta fase de uso masivo y continuo la que realmente impulsa la mayor parte del consumo global al escalar a miles de millones de consultas diarias.
Es importante mencionar que no todos los impactos ambientales se reducen a la electricidad. La refrigeración de equipos, la fabricación de hardware y la gestión de residuos electrónicos son factores que también contribuyen significativamente a la huella total de la IA.
Medidas y tendencias hacia una IA más sostenible
La comunidad técnica y reguladora ha identificado varias estrategias para reducir el impacto ambiental de los sistemas de IA sin renunciar a sus beneficios. Una medida clave es el uso de energías renovables para alimentar los centros de datos. En España, por ejemplo, más del 56 % de la electricidad generada en 2024 provino de fuentes limpias, un incremento respecto a años anteriores, lo que ayuda a disminuir la intensidad de carbono asociada al uso de IA.
Otra área de avance es la eficiencia de los propios modelos de IA. El uso de algoritmos más ligeros, técnicas de compresión y despliegue de modelos más pequeños cuando es suficiente para la tarea puede reducir significativamente la demanda de recursos sin sacrificar la calidad de los resultados. El enfoque de computación perimetral (edge computing), que procesa datos más cerca del lugar de generación en lugar de en centros de datos centralizados, también puede aportar mejoras de eficiencia energética al evitar largos trayectos de transmisión de datos.
Por último, la colaboración entre gobiernos, industria y la comunidad técnica para fomentar la transparencia y el reporte estandarizado de consumos es esencial para poder medir con precisión y gestionar de forma responsable el impacto de estas tecnologías emergentes.
Reflexión final
Las herramientas de IA, incluyendo ChatGPT, ofrecen valor tangible en productividad, educación y automatización, pero su uso no es “invisible” desde el punto de vista medioambiental. Cada interacción con estos sistemas tiene un coste energético, de recursos y de emisiones que, aunque mínimo a nivel individual, se multiplica de manera exponencial a medida que aumenta el uso global. Comprender estos costes y trabajar activamente en mitigarlos —a través de mejores regulaciones, energías limpias y optimizaciones tecnológicas— será clave para que la expansión de la IA sea compatible con los objetivos climáticos y sanitarios de Europa y España.
142