image d'un datacenter@SHUTTERSTOCK

IA : le mur de l’énergie

Derrière ChatGPT et les IA génératives, se cachent des data centers XXL, des monstres de calcul hyper-énergivores, qui devraient à eux seuls accaparer 4 % de l’électricité mondiale en 2026. Une trajectoire intenable selon les spécialistes, sur fond de déclarations politiques et technologiques tonitruantes.

par Vincent Nouyrigat et Muriel Valin,

Dans le monde de la tech, la guerre est déclarée. Derrière les looks décontractés, l’esprit start-up, les progrès stupéfiants, les applis amusantes, se joue aujourd’hui une bataille sans merci pour mettre la main sur les énormes ressources énergétiques nécessaires au bon fonctionnement des IA génératives qui sont en train d’envahir notre quotidien. Dès le lendemain de son investiture, le 21 janvier, Donald Trump annonçait le “projet Stargate”, initié par OpenAI, visant à investir 500 milliards de dollars d’ici à 2029 pour construire aux États-Unis vingt data centers XXL dédiés à l’IA, et toute l’infrastructure énergétique nécessaire pour alimenter ces nouveaux monstres de calcul. Dans le même temps, une start-up chinoise, DeepSeek, provoquait une débâcle boursière dans la tech américaine avec son agent conversationnel très performant, et a priori beaucoup plus sobre que le ChatGPT d’OpenAI…

Des centaines de milliards de paramètres

Car le nerf de la guerre des nouvelles IA, c’est bien la question bassement matérielle de l’électricité. D’après les calculs réalisés cet automne par des chercheurs de la start-up Hugging Face et de l’université Carnegie-Mellon, la génération d’un texte serait dix à vingt fois plus consommatrice d’énergie que les tâches basiques de classification et de reconnaissance automatique – souvenez-vous de notre émerveillement face à ces algorithmes capables d’identifier sur une photo une race de chien ou le nom d’une plante… Et la production d’une image artificielle est encore bien plus énergivore : cela équivaut à charger la moitié de la batterie de son téléphone portable – on n’ose imaginer le bilan des prochains films conçus par ces robots. “Les modèles d’IA générative sont beaucoup plus grands que les IA de reconnaissance visuelle, on parle de centaines de milliards de paramètres contre des millions, justifie Chang Xu, chercheur à l’université de Sydney. Et à la différence de la classification, il faut ici de nombreuses itérations de calcul pour produire une réponse.” 

Les data centers sont arrivés dans l’équation électrique à une vitesse ultrarapide, personne ne l’a vu venir

Hélène Macela-Gouin, ingénieure électricité, Schneider Electric

Ajoutez à cela la ruée sur ces outils de 500 millions d’utilisateurs avides, vous, nous, ignorant que l’entraînement de ces systèmes, puis l’affichage des résultats de nos requêtes – pas toujours d’une folle nécessité – mobilisent des milliers de cartes graphiques de 400 à 700 watts de puissance chacune, qu’il s’agit d’alimenter d’une manière ou d’une autre. 

Ça a totalement dérapé

Bien sûr, les géants de la tech mettent en avant les innombrables progrès – et économies d’énergie – que vont offrir ces IA. Et insistent sur leurs sources “vertes” : solaire, éolien, hydraulique, géothermie, nucléaire. “Cet automne, nous avons signé le premier accord d’entreprise au monde pour l’achat d’énergie provenant de plusieurs petits réacteurs nucléaires modulaires”, nous explique un porte-parole de Google. “Nous avons signé des accords d’achat d’énergie pour ajouter 34 gigawatts de capacité renouvelable dans 24 pays”, rapporte de son côté Régis Lavisse chez Microsoft France. 

Signe de leur soif désespérée d’énergie, Microsoft et OpenAI en sont même réduits à parier pour les années 2030 sur d’hypothétiques réacteurs à fusion nucléaire. Mais pour l’instant “la demande est tellement pressante qu’on peut craindre la réouverture de centrales à gaz et à charbon, l’énergie colossale dont le projet Stargate va avoir besoin ne sera pas renouvelable”, estime Thomas Brilland, ingénieur en sobriété numérique à l’Ademe ; d’ailleurs, avec la construction de ces nouvelles infrastructures, les bilans carbone affichés par Google et Microsoft ont totalement dérapé depuis 2023.

Les Gafam entretiennent le flou

Localement, certains réseaux électriques sont déjà au bord de la saturation : les data centers consomment à ce jour 20 % de l’électricité irlandaise et 25 % de l’électricité de l’État de Virginie. “En plus de la demande des data centers, l’électrification du chauffage et des transports est aussi en train d’augmenter”, exprime Errol Close chez Eirgrid, opérateur du réseau irlandais. Certaines villes comme Singapour, Amsterdam ou plus récemment Lérida, en Espagne, ont même bloqué de nouveaux projets, et à Marseille la colère gronde. 

Les data centers sont des éléments nouveaux qui sont arrivés dans l’équation électrique avec une vitesse ultrarapide, personne ne l’a vu venir, c’est très difficile de les intégrer au réseau. En France, il faut 5 à 7 ans pour faire un branchement haute tension”, précise Hélène Macela-Gouin, de Schneider Electric. Sachant que les nouvelles installations dites “hyperscale” mobilisent parfois plus de 1 000 mégawatts de puissance, l’équivalent d’un réacteur nucléaire… “On ne peut pas accepter que toute la puissance disponible dans une région soit accaparée par un seul data center”, reconnaît Grégory Lebourg, d’OVHcloud.

Il faut sortir de cette trajectoire énergétique, c’est intenable

Laurent Lefèvre, spécialiste du calcul haute performance à l’Inria

L’Agence internationale de l’énergie, l’AIE, multiplie depuis un an les alertes et annonce un nouveau rapport pour avril. “Le moment est venu pour les décideurs politiques et l’industrie de collaborer à une vision pour répondre à cette source de demande d’électricité en croissance rapide, de manière sûre et durable”, déclarait en décembre Fatih Birol, son directeur exécutif. 

Il faut dire que les projections de l’agence ont de quoi faire frémir : la consommation des data centers devrait doubler en 2030 et pourrait atteindre plus de 1 000 téra­wattheures… l’équivalent de 1,5 fois les besoins énergétiques de la France. Ces centres de calcul pourraient même mobiliser près de 10 % de l’électricité américaine. Des projections d’autant plus angoissantes que les Gafam sont assez opaques sur leurs chiffres réels : “Google ne détaille plus la consommation d’énergie liée à l’IA générative”, regrette Alex de Vries, chercheur à l’université d’Amsterdam ; une directive européenne en cours de signature devrait tout de même imposer la publication de ces chiffres… en Europe.

“On va dans le mur”

Une chose est sûre : “Il faut sortir de cette trajectoire énergétique, c’est intenable”, lance Laurent Lefèvre, spécialiste du calcul haute performance à l’Inria. “Si on reste avec les technologies actuelles, on va dans le mur… Les progrès en IA générative ne seront plus possibles, la facture sera trop lourde”, prophétise François Terrier, directeur du programme intelligence artificielle du CEA. 

Preuve que le problème commence à être pris au sérieux, les initiatives se multiplient ces derniers mois : concours de sobriété à l’image du Frugal AI challenge achevé début février au sommet pour l’IA de Paris ; création d’outils d’évaluation d’impact des algorithmes (CodeCarbon, Carbon ­Tracker…) ; propositions de nouveaux labels énergétiques délivrés aux IA (Green Algorithms, AI ­Energy Star)… “Ce n’est vraiment pas réaliste de donner accès pour tout le monde à d’énormes modèles de milliers de milliards de paramètres très consommateurs en calcul”, lâche Christina Shim, responsable du développement durable à IBM. “On a eu trop tendance à surdimensionner les IA génératives pour en faire des couteaux suisses capables de répondre aux questions les plus compliquées, confirme Renaud Monnet, directeur du Digital Lab de CentraleSupélec. Il faut revenir à des modèles plus adaptés aux besoins de chacun ; pas besoin de prendre un gros 4x4 SUV, le vélo c’est parfois mieux.” 

La course aux économies

De fait, dans les laboratoires, les chercheurs entament de grands travaux d’élagage en supprimant des neurones artificiels, ou même des couches entières de neurones finalement jugées non nécessaires ; les équipes de Nvidia sont récemment parvenues à réduire un modèle de 15 milliards de paramètres à 8 milliards, avec de substantielles économies d’énergie à la clé. Tout l’art des ingénieurs consiste à alléger les modèles sans trop perdre en qualité de résultats – ils ne se privent pas de transférer des connaissances des grands modèles vers les petits, un procédé appelé “distillation”. “Avec des architectures mieux pensées, des données d’entraînement mieux sélectionnées, en étant moins dans la force brute et en accélérant la convergence, on obtient des modèles réduits très performants”, assure François Terrier. 

Autre cure d’amaigrissement en cours, évoquée par Vijay Gadepally, spécialiste des supercalculateurs au MIT : “Au lieu de paramètres codés en format 32 ou 16 bits, nous les codons maintenant en 8 bits, cela réduit la taille du modèle ; même s’il faut faire de subtils compromis entre la ­précision et l’efficacité de calcul.” C’est ce bricolage astucieux qui a notamment contribué à la saisissante sobriété du modèle chinois DeepSeek. 

Frénésie techno

Du côté du hardware, les industriels sont lancés dans une course perpétuelle à l’efficacité ; en parallèle à la loi de Moore, la “loi de Koomey” veut que la quantité de calculs par joule consommée double tous les 18 mois. Et il faut le reconnaître, les spécialistes des composants dédiés à l’IA font très forts : “Notre dernière génération de carte graphique Blackwell a une efficacité énergétique 25 fois supérieure à la précédente, tout en étant 30 fois plus rapide”, s’enorgueillit Dion Harris, directeur des “data centers accélérés” chez Nvidia. Autant de composants brûlants qu’il va cependant falloir refroidir à moindre coût énergétique : “À Microsoft, nous explorons l’idée de faire circuler le liquide de refroidissement dans des microcanaux directement intégrés dans la conception des puces”, annonce Régis Lavisse.

Les gains ­d’efficacité en IA ont surtout servi jusqu’ici à faire encore plus de calculs

Anne-Laure Ligozat, université Paris-Saclay

Jusqu’à quand pourront-ils tenir ce rythme effréné ? “Je pense que les gains d’efficacité à portée de main ont déjà été récoltés, les améliorations des composants actuels sont en train de saturer face à l’explosion de la complexité du calcul, il faudrait changer d’approche”, lâche Naveen Verma, chercheur à l’université de Princeton. “On sera tous bientôt à l’os en termes d’efficacité des composants dans les data centers”, confirme Grégory Lebourg. 

Beaucoup de spécialistes des processeurs planchent en ce moment sur la possibilité de limiter les très énergivores transferts de données entre mémoires et unités de calcul. “Nous avons mis au point une puce qui exécute ces calculs d’IA directement dans la mémoire, une puce qui utilise également des signaux analogiques : cette approche permet d’être considérablement plus efficace que les cartes graphiques numériques actuelles”, avance Naveen Verma. 

Les propositions fourmillent : calcul en mémoire, analogique, réversible… mais aussi calcul neuromorphique cherchant à imiter le fonctionnement du génial cerveau humain, dont la modique puissance de 20 watts fait pâlir d’envie les informaticiens. “Ces systèmes reposent sur un traitement événementiel, à l’image de nos neurones : ils ne traitent les informations que lorsque les événements se produisent, cela évite beaucoup de calculs inutiles”, décrit Kaustav Banerjee, spécialiste de la nanoélectronique à l’université de Californie. Les programmeurs doivent encore s’adapter et les data centers ne sont pas prêts à se convertir au neuro­morphique, “mais plusieurs de ces composants sont déjà dans les fonderies de silicium et devraient débarquer dans les applications mobiles d’ici à trois ans, on parle de gains énergétiques d’un facteur 1000”, s’enthousiasme Julie Grollier, physicienne au laboratoire Albert-Fert. De quoi enjamber le “mur de l’énergie” ?

Mobilisation

Certains sont très sceptiques : “Nos travaux montrent que les gains d’efficacité en IA ont surtout servi à faire encore plus de calculs, la consommation d’énergie continuant d’augmenter fortement, cingle Anne-Laure Ligozat, à l’université Paris-Saclay, qui craint un effet rebond. La frugalité prônée dans l’IA n’est pas synonyme de sobriété.”“Pour le moment, je ne vois pas de ralentissement, pas d’auto­régulation… bien au contraire”, rumine Laurent Lefèvre. “Au début des années 2000, il y avait les mêmes craintes d’une explosion de la consommation d’énergie pendant le boom des ordinateurs PC, mais l’augmentation a en réalité été contenue grâce aux innovations”, tente de rassurer Christina Shim chez IBM. “Les défis sont là, mais il n’y a pas de blocage technique ou physique incontournable”, tient à rassurer Hélène Macela-Gouin. “Les chercheurs sont mobilisés. Ce n’est pas impossible qu’on trouve une solution”, appuie François Terrier. En attendant, la bataille continue en coulisses, entre intelligence artificielle et monde réel.

Abonnez-vous et ne manquez aucun numéro
Chaque mois,dans votre boîte aux lettres
Toutes les archives,accessibles en ligne
La version numérique,avec l'appli Epsiloon
Un espace abonné,pour gérer mon compte