Les entreprises technologiques américaines investissent des milliards dans l’intelligence artificielle. Cela crée un problème d'alimentation


Une intelligence artificielle (IA) plus importante et plus performante : tel est l’objectif poursuivi par les grandes entreprises technologiques aux États-Unis. Ces dernières semaines, Open AI, Amazon et Meta ont annoncé des milliards d’investissements dans l’IA. Même Donald Trump a évoqué le sujet dès son deuxième jour au pouvoir. Une grande partie de cet argent sera consacrée à l’infrastructure qui constitue l’épine dorsale de l’IA : les centres de données.
NZZ.ch nécessite JavaScript pour des fonctions importantes. Votre navigateur ou bloqueur de publicités empêche actuellement cela.
Veuillez ajuster les paramètres.
100 milliards de dollars doivent être investis dans le projet « Stargate » d'Open AI et Microsoft, Alphabet prévoit d'investir 75 milliards dans le développement de l'IA cette année, Amazon investit 86 milliards dans les infrastructures, Meta 65 milliards. De nouveaux centres de données vont également être construits en Europe, notamment en France. Le président français Emmanuel Macron annonce des investissements de 109 milliards d'euros lors d'un sommet sur l'IA à Paris. La demande énergétique augmentera avec l’expansion des infrastructures d’IA, mais la mesure dans laquelle cela augmentera est controversée.
Il y a beaucoup plus de centres de données aux États-Unis qu'en Europe. Là, des puces hautement spécialisées entraînent et exploitent des modèles d’IA 24 heures sur 24. Ces centres de données consomment beaucoup d’électricité. Dans l’État de Virginie, les centres de données représentent déjà un quart de la demande totale d’électricité. Mais d’où cette énergie devrait-elle provenir de la manière la plus écologique et la plus fiable possible ?
L’intelligence artificielle augmente la demande énergétiqueL’IA consomme de l’électricité plusieurs fois : de grandes quantités lorsque le modèle d’IA est en cours d’entraînement. Et chaque fois qu’un utilisateur fait une demande au modèle. Selon qu'il s'agisse de texte, d'images ou de vidéos, chaque requête adressée à un chatbot comme Chat-GPT consomme dix à trente fois plus d'énergie qu'une recherche en ligne via un moteur de recherche.
Les puces informatiques nécessaires pour former et utiliser l’IA sont également plus gourmandes en énergie que les puces traditionnelles nécessaires aux applications cloud, par exemple. Pour entraîner un modèle d’IA ou traiter une requête, une puce doit avant tout calculer, et pas seulement stocker des informations. Cela génère également de la chaleur supplémentaire. Les centres de données doivent donc être spécialement refroidis. Surtout dans les régions chaudes comme le Texas ou l’Arizona, cela nécessite beaucoup d’électricité supplémentaire.
Cela se reflète également dans les projections de consommation énergétique future des centres de données. Une étude du cabinet de conseil McKinsey estime que cette puissance atteindra 80 gigawatts aux États-Unis d’ici 2030. L’année dernière, ce chiffre était de 25 gigawatts. Le Boston Consulting Group (BCG) s’attend également à ce que la demande énergétique triple. Le fait que l’IA devienne de plus en plus efficace est pris en compte dans le calcul, rapporte le BCG. Les centres de données ne sont pas seulement construits aux États-Unis ; des pays et des entreprises du monde entier investissent dans leur expansion. Le cabinet de conseil Bain écrit que la consommation d'énergie dans les centres de données du monde entier a augmenté de 72 % entre 2019 et 2023 et devrait encore doubler d'ici 2027.
Aujourd’hui, les centres de données représentent 1 % de la consommation énergétique mondiale. Si les estimations sont correctes, les centres de données pourraient représenter 2,6 % de la demande énergétique mondiale d’ici 2027. Cette proportion est peut-être encore faible, mais son augmentation rapide souligne la nécessité de sources d’énergie fiables.
Fondamentalement, les puces sont devenues de plus en plus efficaces ces dernières années. Mais surtout avec les puces d’IA, la tendance est à une consommation d’énergie accrue. La dernière puce Blackwell de Nvidia nécessitera 15 kilowatts d'énergie. Si vous remplissez un centre de données entier avec de telles puces, il consommerait facilement autant d’énergie qu’une ville de taille moyenne. Babak Falsafi est professeur à l'EPFL et étudie l'efficacité des centres de données. Il déclare : « Avec les puces développées spécifiquement pour l’IA, la consommation d’énergie double à chaque nouvelle génération. »
Il y a un an, Sam Altman, PDG d’Open AI, avertissait qu’une pénurie d’énergie mettrait en danger le développement de l’IA.
De meilleures puces peuvent rendre l’IA plus efficaceLe succès de l’IA de la startup chinoise Deepseek a fait douter de l’hypothèse selon laquelle l’IA a réellement besoin de plus en plus de puissance de calcul. Selon l'entreprise, Deepseek a formé son chatbot avec des puces moins nombreuses et moins puissantes et a néanmoins obtenu des performances similaires au modèle haut de gamme d'Open AI. Dans un document de recherche, Deepseek explique les techniques qu'ils ont utilisées pour obtenir une IA plus efficace. D’autres développeurs d’IA peuvent adopter ces innovations pour leurs propres modèles.
Si la puissance de calcul peut être économisée, les centres de données consomment également moins d’électricité. Babak Falsafi ajoute : « Des améliorations aux algorithmes pourraient les rendre plus efficaces et ainsi économiser de l’énergie. »
En fait, les algorithmes qui entraînent l’IA plus efficacement ne réduisent pas nécessairement l’énergie requise pour les applications d’IA dans leur ensemble. Ils rendent l’IA moins chère et donc plus attractive pour les utilisateurs. À mesure que de plus en plus de personnes et d’entreprises utilisent l’IA, la consommation d’électricité va à nouveau augmenter. Les coûts et les besoins énergétiques se déplacent alors uniquement de la formation vers l’application.
Les entreprises technologiques investissent dans les nouvelles technologies énergétiquesC’est pourquoi Microsoft mise sur l’énergie nucléaire et finance le redémarrage de la centrale nucléaire de Three Mile Island, fermée en 2019. La centrale électrique n’était plus rentable. Amazon et Google ont annoncé à l’automne des investissements majeurs dans ce qu’on appelle les « petits réacteurs modulaires ». Ces petites centrales nucléaires modulaires produisent jusqu’à 300 mégawatts d’électricité et peuvent alimenter directement en électricité les centres de données. Aucune de ces mini-centrales nucléaires n’est encore raccordée au réseau électrique américain, ni même proche d’être opérationnelle.
Sam Altman lui-même s’appuie sur des startups comme Oklo, qui développe de petits réacteurs nucléaires fonctionnant avec des déchets nucléaires comme combustible. Il investit également dans Helion, une société spécialisée dans la fusion nucléaire. Altman investit des centaines de millions de dollars dans le secteur de l’énergie dans l’espoir d’une percée.
Mais cette avancée est encore loin d’être réalisée. Il faudra peut-être des années, voire des décennies, avant que de nouvelles formes de production d’énergie ne fournissent suffisamment d’électricité. Jusqu’alors, les centres de données seront souvent alimentés par de l’énergie provenant de combustibles fossiles. Parce que le battage médiatique autour de l’IA consomme de l’électricité aujourd’hui.
nzz.ch