Los centros de datos de AI consumen el 6% de la electricidad en UK y US
Los centros de datos consumen el 6% de la electricidad en el Reino Unido y Estados Unidos, convirtiéndose en uno de los principales factores de la crisis energé

Los centros de datos que alimentan la inteligencia artificial y los servicios en la nube consumen el 6% de la electricidad en Reino Unido y EE.UU. Esta cifra está creciendo rápidamente y ya está causando resistencia pública en comunidades locales. Una nueva investigación muestra que el costo energético de la IA será uno de los problemas clave de la próxima década.
Inversiones en centros de datos a nivel de economía estatal
La Asociación Internacional de Centros de Datos (IDCA) publicó una investigación que muestra que las inversiones globales anuales en centros de datos se aproximan a 1 billón de dólares. Esto es aproximadamente el 1% de la economía mundial — una enorme cuota comparable a las economías de países enteros. La cifra demuestra cuán crítica se ha vuelto la infraestructura de almacenamiento y procesamiento de datos en el mundo moderno.
El consumo de electricidad en centros de datos ha crecido un 15% globalmente en los últimos dos años. Esta tasa de crecimiento es más del doble del crecimiento promedio en el consumo de electricidad y está impulsada principalmente por la aceleración en la implementación de sistemas de IA — desde el entrenamiento de grandes modelos de lenguaje hasta el lanzamiento de aplicaciones en producción.
Para entender la escala: si hace cinco años el streaming de vídeo y el almacenamiento en la nube eran los principales consumidores de energía en los centros de datos, hoy se ha añadido la IA, que requiere órdenes de magnitud más potencia.
- El entrenamiento de una red neuronal grande requiere varios meses de trabajo continuo en potentes clústeres de GPU
- La ejecución de inferencia (cálculo de respuestas para usuarios) requiere un flujo constante de computación 24/7
- La duplicación y la copia de seguridad de la infraestructura por razones de confiabilidad aumenta el consumo total en 20-30%
- El enfriamiento de servidores se convierte en uno de los mayores gastos y puede alcanzar el 40% del consumo total de energía
Por qué la IA requiere tanta electricidad
Detrás de cada chatbot que utilizas hay procesos computacionales masivos. Mientras que los centros de datos antes alimentaban principalmente sitios web, servicios de streaming y redes sociales, ahora se ha añadido la IA, que requiere órdenes de magnitud más potencia.
Entrenar un único modelo grande puede requerir tanta electricidad como miles de casas consumen en un año. Por ejemplo, el entrenamiento de GPT-4 requirió aproximadamente la misma cantidad de energía que una pequeña ciudad consume en un mes. Y cuando el modelo está listo, su funcionamiento para millones de usuarios requiere un flujo constante de energía, porque los servidores funcionan sin interrupciones.
Además, las empresas a menudo entrenan múltiples versiones de un modelo y las mantienen en la memoria para acceso rápido. Esto aumenta aún más los costos energéticos.
"El costo energético de la IA es un código de trucos oculto en la economía", señaló uno de los investigadores de IDCA en una entrevista con
The Guardian.
Las comunidades locales se alzan contra la expansión de centros de datos
La ola de desarrollo de IA ha provocado conflictos con comunidades locales. Los residentes se oponen a la construcción de nuevos centros de datos, temiendo aumentos en las facturas de electricidad y deterioro de la calidad de vida. En algunas áreas del Reino Unido y EE.UU. ya se han adoptado resoluciones contra la expansión de capacidad, y en algunos casos, los permisos para nuevas construcciones se han congelado.
El problema es agudo: si los centros de datos continúan consumiendo electricidad al ritmo de crecimiento actual del 15% anual, esto competirá seriamente con las necesidades de ciudadanos comunes, hospitales e industria. En algunas regiones, ya se observan escaseces de energía durante las horas punta.
Lo que esto significa
La comunidad de desarrolladores de IA y empresas como OpenAI, Google, Meta se han enfrentado a una realidad dura: el progreso tecnológico tiene un costo energético real. O será necesaria una transición a gran escala a fuentes de energía renovables (eólica, solar, nuclear), o los propios algoritmos tendrán que optimizarse para requerir menos computación. Ambos caminos requieren inversiones y tiempo enormes.
Hasta que esto suceda, la crisis energética será uno de los principales factores limitantes en el desarrollo de la IA.