En ce moment

L’IA évitera-t-elle le gouffre énergétique ?

Posté le 6 mai 2026
par Stéphane SIGNORET
dans Informatique et numérique

Des centaines de milliards de dollars sont et vont être investis dans l’IA. Causant déjà des tensions sur les systèmes électriques, l’intelligence artificielle devra-t-elle être régulée ou bien prendra-t-elle un virage de sobriété pour éviter la surconsommation d’énergie ?

L’euphorie qui gagne les esprits à propos de l’intelligence artificielle (IA) semble sans frein. Au-delà de la question de sa réelle nécessité dans la vie quotidienne, dans les activités des entreprises ou pour des ambitions étatiques (surveillance, guerre, etc.), l’IA est aussi confrontée à des interrogations sur son impact en termes de ressources naturelles (eau, sol/foncier, métaux, etc.) et de consommation d’énergie.

Concernant ce dernier point, l’Agence internationale de l’énergie (AIE) a récemment actualisé son rapport d’avril 2025, tellement la situation évolue rapidement. Alors que la consommation d’électricité des centres de données avait augmenté de 12 % par an entre 2019 et 2025, elle a atteint +17 % entre 2026 et 2025. Les seuls centres dédiés à l’IA ont vu leur consommation bondir de +50 %. En France, l’Ademe estime que la consommation d’électricité des centres de données pourrait atteindre 37 TWh en 2035, soit une multiplication par 3,7 en dix ans.

Dans ses projections futures, l’AIE prévoit que la consommation électrique mondiale des data centers passe d’environ 500 TWh en 2025 à 950 TWh en 2030 dans un scénario « Base ». Elle pourrait déraper à 1 250 TWh dans un scénario de fort déploiement, ce qui ne semble pas improbable vu les 1 100 milliards de dollars d’investissement prévus en 2025 et 2026 par les grandes entreprises du numérique.

Face à ce laisser-faire, seul un cumul d’efficacité énergétique ET de limitation du développement de l’IA permettrait de plafonner cette consommation autour de 700 TWh, selon l’AIE. Dans le scénario « Base », malgré un fort recours aux énergies renouvelables et au nucléaire, la production d’électricité nécessaire à la consommation des centres de données engendrerait l’émission de plus de 300 Mt CO2/an dans le monde en 2030, contre environ 120 en 2020.

Un impact sur la facture d’électricité des Américains

D’autres conséquences apparaissent, notamment aux États-Unis. Fin 2025, Bloomberg et Harvard ont pointé un phénomène d’augmentation de la facture d’électricité des particuliers dans certains États, à cause de la gourmandise de l’IA en énergie. Dans certaines localités proches de centres de données américains, la hausse du prix de l’électricité a été de 267 % en cinq ans !

Ces hausses de prix sont liées au besoin de renforcement ou d’extension des réseaux électriques auxquels les data centers veulent se raccorder, sans compter les nouveaux moyens de production d’électricité nécessaires… Autant d’investissements qui se reportent sur la facture des consommateurs. La socialisation de ces coûts, jusque-là acceptée car au profit du développement d’un pays et de ses habitants, se justifie-t-elle encore aujourd’hui quand ce sont des entreprises détenues par des multimilliardaires qui vont surtout profiter du boost de l’IA ?

Le système est aussi fragilisé par l’extrême rapidité de la croissance de la demande en IA. Le Texas montre cette démesure : les demandes des centres de données atteignent 119 GW de puissance électrique, soit plus que toute la capacité de production de cet État ! Une régulation s’impose, et l’Oregon a par exemple passé un décret en 2025 pour que les grands consommateurs numériques payent les conséquences de leurs choix sur le réseau électrique.

À la recherche d’agents IA frugaux

Au regard de tout cela, comment éviter le dérapage vers un gouffre énergétique de l’IA ? L’AIE se veut optimiste en soulignant que cette technologie pourrait aider à l’optimisation du système énergétique en général, et électrique en particulier. Elle éviterait ainsi des coûts d’exploitation et de maintenance à hauteur de 110 milliards de dollars en 2035, et pourrait débloquer 175 GW de capacités additionnelles de transport d’électricité. L’IA pourrait aussi accélérer des innovations dans le secteur énergétique.

L’AIE note également que l’IA a réalisé des progrès d’efficacité énergétique, nécessitant moins d’énergie à chaque requête. Un projet de recherche français nommé Frugalia explore cette piste en visant à réduire de 20 à 50 % l’impact carbone des usages de l’IA. Il est financé à 60 % par le Feder, et le consortium ligérien qui l’a lancé est composé de l’école d’ingénieurs IMT Atlantique et de deux entreprises, EasyVirt et DRI. Il souhaite d’abord élaborer un modèle prédictif de la consommation d’énergie et de l’impact carbone des différents usages de l’IA, « afin de disposer d’une nouvelle métrique objective qui servira à comparer les solutions, identifier les moins énergivores et sensibiliser les usagers » précise Édouard Guegain, responsable R&D sur le numérique responsable chez DRI.

Frugalia vise aussi le développement d’un système intelligent de routage automatique vers les modèles d’IA les plus économes en énergie. Ainsi, les questions les plus triviales posées à l’IA seraient résolues par l’agent le plus frugal, mais cela suppose que l’utilisateur fasse confiance au « routeur » pour choisir la meilleure solution. « En fait, les IA sont surdimensionnées par défaut. Il y a un levier d’optimisation important. On va aussi travailler à un optimisateur de prompts écoconçus, car souvent les utilisateurs reçoivent des réponses beaucoup trop longues par rapport à leur besoin, ce qui consomme plus d’énergie » explique Édouard Guegain. Il s’agira ainsi de reformuler automatiquement les requêtes des utilisateurs – par des suppressions de redondances, une simplification du vocabulaire, etc. – afin que la réponse soit appropriée et frugale en énergie.

Cette petite goutte de sobriété modifiera-t-elle le cours du fleuve débordant de l’IA ?


Pour aller plus loin