Guardian→ original

Les centres de données AI consomment 6% de l’électricité au UK et aux US

Les centres de données consomment 6% de l’électricité au Royaume-Uni et aux États-Unis, devenant l’un des principaux facteurs de la crise énergétique. Les inves

Les centres de données AI consomment 6% de l’électricité au UK et aux US
Source : Guardian. Collage: Hamidun News.
◐ Écouter l'article

Les centres de données qui alimentent l'intelligence artificielle et les services en nuage consomment 6% de l'électricité au Royaume-Uni et aux États-Unis. Ce chiffre croît rapidement et provoque déjà une résistance publique dans les communautés locales. Une nouvelle recherche montre que le coût énergétique de l'IA sera l'un des principaux enjeux de la prochaine décennie.

Investissements dans les centres de données au niveau de l'économie d'État

L'Association internationale des centres de données (IDCA) a publié une étude montrant que les investissements mondiaux annuels dans les centres de données approchent 1 trillion de dollars. Ceci représente environ 1% de l'économie mondiale — une part énorme comparable aux économies de pays entiers. Le chiffre démontre à quel point l'infrastructure de stockage et de traitement des données est devenue critique dans le monde moderne.

La consommation d'électricité des centres de données a augmenté de 15% mondialement au cours des deux dernières années. Ce taux de croissance est plus que le double de la croissance moyenne de la consommation d'électricité et est principalement dû à l'accélération de la mise en œuvre des systèmes d'IA — depuis l'entraînement de grands modèles de langage jusqu'au lancement d'applications en production.

Pour comprendre l'ampleur : si il y a cinq ans le streaming vidéo et le stockage en nuage étaient les principaux consommateurs d'énergie dans les centres de données, aujourd'hui l'IA s'y est ajoutée, exigeant des ordres de grandeur plus de puissance.

  • L'entraînement d'un grand réseau neuronal nécessite plusieurs mois de travail continu sur de puissants clusters GPU
  • L'exécution de l'inférence (calcul des réponses pour les utilisateurs) nécessite un flux constant de calcul 24/7
  • La duplication et la sauvegarde de l'infrastructure pour des raisons de fiabilité augmente la consommation totale de 20-30%
  • Le refroidissement des serveurs devient l'un des plus importants postes de dépenses et peut atteindre 40% de la consommation d'énergie totale

Pourquoi l'IA consomme-t-elle autant d'électricité

Derrière chaque chatbot que vous utilisez se trouvent des processus computationnels massifs. Alors que les centres de données alimentaient auparavant principalement des sites web, des services de streaming et des réseaux sociaux, l'IA s'y est ajoutée, exigeant des ordres de grandeur plus de puissance.

L'entraînement d'un seul grand modèle peut consommer autant d'électricité que des milliers de maisons en un an. Par exemple, l'entraînement de GPT-4 a consommé approximativement autant d'énergie qu'une petite ville en un mois. Et lorsque le modèle est prêt, son exploitation pour des millions d'utilisateurs nécessite un flux constant d'énergie, car les serveurs fonctionnent sans interruption.

De plus, les entreprises entraînent souvent plusieurs versions d'un même modèle et les conservent en mémoire pour un accès rapide. Cela augmente encore davantage les coûts énergétiques.

"Le coût énergétique de l'IA est un code de triche caché dans l'économie", a noté l'un des chercheurs de l'IDCA dans une interview avec

The Guardian.

Les communautés locales s'élèvent contre l'expansion des centres de données

La vague de développement de l'IA a mené à des conflits avec les communautés locales. Les résidents s'opposent à la construction de nouveaux centres de données, craignant l'augmentation des factures d'électricité et la dégradation de la qualité de vie. Dans certaines régions du Royaume-Uni et des États-Unis, des résolutions contre l'expansion des capacités ont déjà été adoptées, et dans certains cas, les autorisations de nouvelles constructions ont été gelées.

Le problème est aigu : si les centres de données continuent à consommer de l'électricité au taux de croissance actuel de 15% par an, cela entrera sérieusement en concurrence avec les besoins des citoyens ordinaires, des hôpitaux et de l'industrie. Dans certaines régions, des pénuries d'énergie pendant les heures de pointe sont déjà observées.

Ce que cela signifie

La communauté des développeurs d'IA et des entreprises comme OpenAI, Google, Meta ont fait face à une réalité difficile : le progrès technologique a un coût énergétique réel. Soit une transition à grande échelle vers les énergies renouvelables (éolienne, solaire, nucléaire) sera nécessaire, soit les algorithmes eux-mêmes devront être optimisés pour exiger moins de calculs. Les deux chemins nécessitent des investissements et du temps énormes.

Jusqu'à ce que cela se produise, la crise énergétique sera l'un des principaux facteurs limitant le développement de l'IA.

ZK
Hamidun News
Actualités IA sans bruit. Sélection éditoriale quotidienne de plus de 400 sources. Produit de Zhemal Khamidun, Head of AI chez Alpina Digital.
Qu'en pensez-vous ?
Chargement des commentaires…