Les commentaires sur l’impact environnemental de l’IA oscillent souvent entre catastrophisme et technosolutionnisme. Mais où se situe la vérité ? Le 24 juillet 2025, jour symbolique du dépassement de la Terre, nous avons interrogé Yves Grandmontagne, fondateur et rédacteur en chef de DCMAG (Data Center Magazine), sur l’IA et son impact environnemental. Cette transcription commentée est une simplification d’une discussion particulièrement longue, circonstancié e et nuancée. Nous encourageons donc vivement nos lecteurs à écouter le podcast intégral afin de saisir toutes les subtilités de nos échanges et à considérer cet article juste comme un point de départ pour approfondir ce sujet.
A la recherche de l’impact environnemental de l’IA
Quel est le véritable impact environnemental de l’IA ? Un employé surveille les unités de refroidissement du data center d’Orange à Val de Rueil — Photo antimuseum.com
Ce billet est la synthèse d’un échange particulièrement riche qui a duré près d’une heure. La complexité du sujet nous a contraints à explorer de nombreuses facettes techniques, économiques et environnementales, rendant impossible un traitement exhaustif.
Fort de son expertise approfondie du secteur des data centers et de l’intelligence artificielle, Yves Grandmontagne nous offre ici un éclairage factuel et mesuré sur un débat souvent polarisé entre catastrophisme et techno-optimisme démesuré. Pour balayer ce sujet, nous avons choisi de passer en revue des citations récentes, positives ou négatives et de les vérifier avec l’expert.
Son analyse permet de dépasser les raccourcis simplistes pour comprendre les véritables enjeux de cette révolution technologique.
Impact environnemental de l’IA : entre réalité et exagération
Pour les lecteurs pressés ou tout simplement à la recherche d’un résumé …
Consommation électrique nuancée* – L’IA représentera 20-30% de la consommation des data centers (pas un doublement), et seulement 2-4% de la consommation électrique mondialeEfficacité énergétique remarquable – Sur la dernière décennie : nombre de data centers x2, surface x4, mais consommation énergétique +6% seulementProblème de comparaisons trompeuses – Comparer une requête ChatGPT à Google est méthodologiquement incorrect (technologies et services différents)Consommation d’eau géographiquement variable – Problème majeur aux États-Unis, mais l’Europe utilise depuis longtemps des systèmes en circuit fermé plus sobresÉvolutions technologiques prometteuses – Nouvelles technologies (refroidissement liquide direct, immersion) réduisent drastiquement la consommation d’eau et d’énergieL’IA comme solution potentielle – Peut optimiser la gestion du mix énergétique et du transport d’électricité, principal goulet d’étranglement actuelMise en perspective sectorielle – L’impact des data centers reste marginal comparé à l’industrie chimique (32% de la consommation énergétique française) ou l’agriculture*Les chiffres fournis sont ceux d’Yves Grandmontagne de Data Center Magazine
Conclusion de l’expert : Impact « réel mais largement surestimé », nécessité de contextualiser et d’éviter les débats polarisés.
Voici donc les citations sur l’impact environnemental de l’IA que nous avons voulu vérifier en décryptant avec Yves.
Entre alarmisme et réalité : décryptage des prévisions catastrophistes
Prédition d’explosion de consommation électrique
La première affirmation que j’ai soumise à Yves Grandmontagne concernait les prévisions de Synth Media selon lesquelles « l’essor de l’IA pourrait doubler la consommation électrique des data centers d’ici 2026 ». Sa réponse nuance immédiatement cette perspective alarmiste :
« Il est exact que l’IA déploie ses infrastructures à un rythme particulièrement soutenu et qu’elle occupe une place croissante dans les data centers. À ce titre, elle va effectivement augmenter significativement leur consommation énergétique. Cette consommation va-t-elle pour autant doubler ? Je ne le pense pas. L’IA devrait représenter entre 20 et 30 % de la consommation globale des data centers dans le monde ».
Une armoire de data center — photo antimuseum.com
L’IA devrait représenter entre 20 et 30 % de la consommation globale des data centers dans le monde
Cette première mise au point révèle une constante dans l’analyse d’Yves Grandmontagne : la nécessité de contextualiser les chiffres. L’expert souligne que cette augmentation s’inscrit dans une progression mécanique liée à nos usages croissants du numérique. « Ce qui génère cette augmentation de consommation, ce sont nos usages quotidiens, qu’ils soient professionnels ou personnels » , rappelle-t-il, pointant notre responsabilité collective dans cette évolution. Un sujet que nous avons déjà traité par le passé avec un focus plus large sur le numérique.
L’aspect le plus remarquable de son analyse réside dans la mise en perspective de l’efficacité énergétique. Contrairement aux idées reçues, les data centers ne suivent pas une courbe de consommation proportionnelle à l’augmentation des données. Cette efficacité croissante constitue un élément souvent négligé dans les débats publics sur l’impact environnemental de l’IA.
La pollution carbone de ChatGPT : des chiffres à contextualiser
Concernant les 10 113 tonnes équivalent CO2 attribuées à l’utilisation de ChatGPT en janvier 2023 (Basta Media – Data for Good, l’IA a le potentiel de détruire la planète), Yves Grandmontagne adopte une approche pragmatique :
« Je ne peux confirmer l’exactitude de ce montant. Atteindre une telle précision avec 10 113 tonnes représente un défi méthodologique considérable, d’autant que les infrastructures d’IA sont des systèmes distribués ».
Nous avons demandé à Yves Grandmontagne, rédacteur en chef de DCMAG (Data Center Magazine) de nous éclairer sur l’impact environnemental de l’IA — Il nous a fourni faits et chiffres, que nous vous proposons dans l’infographie attachée à ce billet
Cette remarque soulève un point méthodologique crucial : la difficulté de mesurer précisément l’empreinte carbone d’infrastructures distribuées. L’expert reconnaît néanmoins la réalité de cette pollution tout en la relativisant : « Ces 10 113 tonnes de CO2 représentent néanmoins des volumes significativement inférieurs à ceux de nombreuses autres industries ».
Cette contextualisation n’est pas une minimisation, mais une invitation à la proportionnalité. Yves Grandmontagne rappelle un principe fondamental souvent oublié : « Dès que nous utilisons nos smartphones, nous devenons producteurs de CO2 ». Cette remarque souligne l’incohérence de certaines critiques qui isolent l’IA de notre consommation numérique globale.
La comparaison Google versus ChatGPT : un piège méthodologique
Attention aux raccourcis entre pollution et numérique, ils sont nombreux, et bien confortables quand il s’agit de cacher la pollution industrielle dans son ensemble – image produite avec Midjjourney
L’affirmation du MIT selon laquelle « une requête ChatGPT consomme dix fois plus d’électricité qu’une recherche Google [p 9] » illustre parfaitement les dangers des comparaisons simplistes, selon Yves Grandmontagne. Son analyse est particulièrement éclairante :
« Cette comparaison n’est pas valable. Je considère que nous commettons une erreur méthodologique en avançant ce type de chiffre, car nous comparons deux technologies fondamentalement différentes. Google est un moteur de recherche qui propose des résultats que l’utilisateur doit ensuite exploiter pour trouver les informations recherchées. ChatGPT, en revanche, fournit des informations directement structurées ».
« Plus on utilise l’informatique, et plus on utilise l’IA, plus on consomme ». De la responsabilité des utilisateurs — images antimuseum.com data center Orange de Val de Rueil
Cette analyse révèle la sophistication nécessaire pour évaluer l’impact environnemental de l’IA. En effet, une requête ChatGPT peut remplacer plusieurs recherches Google suivies de consultations de sites web. Cela rend la comparaison directe caduque. Cette distinction deviendra sans doute obsolète avec l’arrivée de Google AI Overviews, qui intégrera des fonctionnalités similaires à celles de ChatGPT.
La question de l’eau : mythes et réalités géographiques
Les nouvelles techniques de refroidissement des data centers se font en circuit fermé. Image antimuseum.com data center d’Orange à Val de Rueil
Des disparités géographiques majeures
L’un des aspects les plus révélateurs de l’interview concerne la consommation d’eau des data centers. Yves Grandmontagne établit une distinction fondamentale entre les pratiques américaines et européennes :
Aux États-Unis, quand vous installez un data center, vous êtes une société privée qui va contacter des sociétés privées qui vont vous fournir de l’eau d’un côté, de l’électricité de l’autre. Et puis, la société qui gère l’énergie ou l’eau est très contente d’avoir un très gros client qui lui absorbe une partie de sa production.
Cette analyse géopolitique éclaire les 5,4 millions de litres d’eau douce attribués à l’entraînement de ChatGPT-3. Le problème ne réside pas dans la technologie elle-même, mais dans les pratiques et régulations locales. En Europe, rappelle l’expert, « on a développé depuis longtemps des outils d’infrastructure de refroidissement qui fonctionnent en circuit fermé ou qui sont basés sur l’air et non pas sur l’eau ».
À ce titre, signalons le centre de données d’Orange à Val de Rueil qui est refroidi par l’air vivifiant de la Normandie . Sauf exception due à une canicule dont la durée est forcément limitée.
Le fonctionnement technique du refroidissement
L’explication technique fournie par Yves Grandmontagne démystifie le processus de refroidissement : « L’eau sert de conducteur pour récupérer la chaleur ». Il détaille ensuite le système de double circuit qui protège l’infrastructure tout en gérant les échanges thermiques. Cette approche révèle que le rejet d’eau chaude des data centers (~ 20-25°) reste nettement inférieur à celui des centrales nucléaires (27-35° pour Gravelines). Cela offre une perspective comparative utile à notre débat.
Le rejet d’eau chaude des data centers (environ 20-25 degrés) reste nettement inférieur à celui des centrales nucléaires (27-35° pour Gravelines)
Il reste à souligner que ces chiffres, d’une part, sont variables en fonction des lieux, de la période de l’année et des choix technologiques, et que d’autre part, une augmentation de 12° dans la mer du Nord, même si les rapports ne révèlent rien à l’échelle macroscopique, n’est probablement pas neutre à l’échelle microscopique et dans le long terme. En parallèle, et dans une moindre mesure, les rejets d’eau chaude des data centers ne sont sans doute pas neutre non plus. Encore un point à nuancer, même s’il convient d’être prudent.
L’expert souligne également l’émergence de nouvelles technologies comme le Direct Liquid Cooling (DLC) et l’immersion, qui fonctionnent en circuit fermé et réduisent drastiquement la consommation d’eau. Cette évolution technologique illustre la capacité d’adaptation du secteur face aux défis environnementaux.
Moratoires et régulations : quand la saturation impose des limites
Un groupe électrogène au centre de données d’Orange à val de Rueil — image antimuseum.com
Les exemples d’Amsterdam, Francfort et Dublin
L’analyse des moratoires sur les data centers révèle des situations contrastées. Yves Grandmontagne distingue particulièrement le cas irlandais . « L’Irlande, on va le rappeler, il y a 30-40 ans [NDLR le chiffre du podcast est erroné], était le pays le plus pauvre d’Europe. Pour réussir à développer une industrie, à faire entrer des capitaux, ils ont trouvé cette solution ».
Et de fait, le PIB par habitant de l’Irlande est supérieur à 100 000$. Il se situe donc parmi les meilleurs mondiaux en 2025.
[NDLR une infographie avec ses sources est disponible en fin d’article]
Aujourd’hui, c’est 30 % de la production énergétique irlandaise qui est dédiée aux data centers. Et Yves de s’écrier : « C’est très clairement beaucoup trop ! ». Cette situation extrême illustre les risques d’une approche non régulée, mais aussi la capacité des gouvernements à réagir intelligemment. « Le gouvernement irlandais n’a pas dit on arrête les data centers, il a décidé conditionner la construction à la mise en place de solutions ».
L‘approche pragmatique adoptée par le tigre irlandais contraste avec les interdictions pures et simples. Elle offre une voie médiane entre développement économique et contraintes environnementales.
Le vrai problème : le transport de l’énergie
Une des révélations les plus importantes de l’interview concerne l’identification du véritable goulet d’étranglement. « Le vrai problème, ce n’est pas la production, c’est le grid. C’est-à-dire que c’est le grid énergétique, c’est-à-dire le transport de l’énergie jusqu’à son lieu où il va être consommé ».
Cette analyse éclaire d’un jour nouveau les débats sur l’impact environnemental de l’IA. La France, rappelle Yves Grandmontagne, « est entièrement autonome dans sa production énergétique ». Mais elle fait face à des défis d’infrastructure de transport. Cette perspective technique révèle que les solutions ne résident pas nécessairement dans la réduction de la consommation, mais dans l’optimisation de la distribution.
Les groupes électrogènes se déclenchent en cas de problème d’alimentation — centre de données de Val de Rueil image antimuseum.com
Contextualisation statistique : l’IA dans le paysage énergétique global
Les 2 % qui interrogent
Concernant les statistiques globales, Yves Grandmontagne corrige les données : « Actuellement, on est plutôt à 2 %. Et on se dirige très vite vers 4 % ». Ces chiffres, rapportés à la consommation mondiale d’électricité, permettent une mise en perspective utile.
L’expert insiste sur la relativité de ces pourcentages : « Quand on sort un graphique sur la consommation d’énergie de toutes les industries, si on met côte à côte l’industrie et les data centers, on s’aperçoit que ces derniers ne pèsent pas grand-chose ».
Les véritables consommateurs d’énergie
Pour contextualiser davantage, Yves Grandmontagne énumère les secteurs véritablement énergivores : « Il y a le transport, les industries, les aciéries, l’agriculture… Cette dernière consomme énormément d’énergie. On omet souvent de le dire ».
Cette mise en perspective révèle selon nos recherches que l’industrie chimique représente 32 % de la consommation énergétique industrielle française, offrant un point de comparaison saisissant avec les 2-4 % des data centers au niveau mondial.
Technosolutionnisme : promesses et réalités
Passons désormais aux technosolutionnistes et regardons leurs affirmations de manière clinique également.
Les déclarations de Sam Altman : entre ambition et pragmatisme
Les déclarations de Sam Altman selon lesquelles « 1 % d’électricité mondiale pour entraîner une IA puissante serait une victoire massive » trouvent également un écho nuancé chez Yves Grandmontagne : « Il est vrai qu’une IA puissante qui s’appelle ChatGPT va consommer peut-être 70 % de la consommation globale des IA dans le monde ».
Cette analyse révèle la réalité économique derrière les déclarations : Microsoft a investi 10 milliards dans OpenAI, créant une situation de quasi-monopole temporaire. L’expert souligne le caractère mécanique de cette consommation : « Il faut de l’informatique. L’informatique, ça consomme de l’énergie. Et comme on en utilise de plus en plus, ça consomme de plus en plus d’énergie. C’est normal ».
L’IA comme solution aux problèmes énergétiques
La vision de Satya Nadella (Microsoft) selon laquelle « l’IA peut être un puissant accélérateur pour traiter la crise climatique » trouve une justification technique chez Yves Grandmontagne : « La vraie problématique, ce n’est pas la production, c’est le transport de l’énergie ».
L’expert explique que la gestion d’un mix énergétique complexe (nucléaire, renouvelables, fossiles) nécessite des outils de pilotage sophistiqués : « On ne pourra le faire d’une manière efficace, aujourd’hui on le sait, qu’en utilisant des outils d’IA ».
Cette perspective technique révèle que l’IA n’est pas seulement consommatrice d’énergie, mais potentiellement optimisatrice du système énergétique global. Cependant, Yves Grandmontagne tempère les ambitions : « Ce sera un ensemble. Ce n’est pas un élément tout seul qui pourra l’aider ».
Il nous paraît également très douteux de prétendre que l’IA, tout « pharmakon » qu’elle est puisse être un poison qui serve de remède universel à ce problème qui la dépasse bien largement, comme nous l’avons écrit précemment.
Innovations technologiques : vers des data centers plus sobres
Le plan « zéro eau » de Microsoft : révolution ou évolution ?
L’annonce de Microsoft concernant son plan de refroidissement « zéro eau » illustre l’évolution technologique du secteur. Yves Grandmontagne confirme : « Ce n’est pas du greenwashing. Ce n’est pas non plus une initiative, cela existe déjà ».
L’expert détaille les nouvelles technologies nécessaires face à l’augmentation drastique de la puissance :
Quand on était sur des technologies classiques jusqu’à présent, on était entre 5 et 10 kilowatts qui arrivaient sur une armoire. Quand on met de l’IA, au minimum, on va consommer 80 kilowatts ou on va consommer 150 kilowatts ».
Cette progression impose l’adoption du Direct Liquid Cooling ou de l’immersion, technologies fonctionnant en circuit fermé. « C’est le sens de l’évolution des technologies pour refroidir les data centers d’IA », conclut-il.
L’efficacité énergétique : une progression remarquable
Une statistique particulièrement révélatrice émerge de l’interview :
Sur la dernière décennie, le nombre de data centers a été multiplié par deux, leur surface a été multipliée par quatre et leur consommation énergétique a été seulement augmentée de 6 %.
Cette donnée illustre les progrès considérables en matière d’efficacité énergétique, souvent occultés dans les débats sur l’impact environnemental de l’IA. Elle révèle la capacité du secteur à concilier croissance et optimisation énergétique.
Géopolitique de l’IA : enjeux américains versus européens
La concentration géographique des infrastructures
Un aspect souvent négligé du débat réside dans la géographie de l’IA. Yves Grandmontagne rappelle : « Pour l’instant, la totalité des productions de l’IA se fait aux États-Unis, pas en Europe ». Cette concentration géographique relativise les critiques européennes tout en soulignant notre dépendance technologique.
L’expert évoque les 109 milliards d’euros d’investissements annoncés par le président Macron dans l’IA, dont « un tiers, voire la moitié concerneront les data centers ». Cette stratégie vise à réduire notre dépendance tout en développant une filière européenne plus sobre.
Les défis américains : infrastructure et régulation
L’analyse de Yves Grandmontagne révèle les faiblesses du modèle américain : « Aux États-Unis, ils ont de grandes faiblesses » concernant le transport d’énergie. Cette défaillance infrastructurelle explique en partie les surconsommations critiquées et justifie les approches différentes adoptées en Europe.
Le projet de Meta au Texas (5 gigawatts sur une surface équivalente à celle de Manhattan) illustre cette problématique : « Meta n’a pas l’énergie, donc il la cherche ». Cette situation contraste avec l’approche européenne plus intégrée et régulée.
L’IA, révolution comparable au feu ? (Pichai)
La déclaration de Sundar Pichai (Google) selon laquelle « l’IA est plus importante que le feu ou l’électricité » trouve un écho nuancé chez Yves Grandmontagne : « Il s’agit d’une vraie révolution, qui va aller beaucoup plus loin que les précédentes, car celles-ci étaient plus industrielles. Celle-ci est une révolution du quotidien ».
Cette analyse souligne la spécificité de la révolution IA : sa rapidité et sa pénétration dans la vie quotidienne. « En à peine deux ans, c’est une véritable vague qui nous a submergés », observe l’expert, contrastant avec les centaines de milliers d’années d’adoption du feu.
Les défis de l’emploi et de l’usage
Au-delà des questions environnementales, Yves Grandmontagne exprime ses préoccupations sociales :
Je fais partie de ceux qui craignent quand même que ça impacte énormément les emplois et je crois qu’il faut être réaliste là-dessus
Cette dimension sociale de l’environnement révèle la complexité des arbitrages à venir. L’expert encourage néanmoins l’adoption : « Il ne faut pas non plus que l’on se coupe de ce potentiel, car des choses extraordinaires aboutiront bientôt ». Il n’est pas facile de se faire une idée sur ce sujet des emplois tant les visions sont contradictoires.
Recommandations et vigilance critique
Le message final d’Yves Grandmontagne aux étudiants (car ce post a été réalisé en préparation de notre cours sur IA et création de contenus) résonne particulièrement :
Faites attention aux discours que vous écoutez, à ceux qui les portent, etc. Il est facile de détourner l’information
Cette mise en garde contre la désinformation souligne l’instrumentalisation politique du débat environnemental. L’expert cite l’exemple marseillais où « il y a un élu qui ambitionne de conquérir la mairie et qui a trouvé ce cheval de bataille » dans l’opposition aux data centers.
L’économie numérique, dimension oubliée
Une perspective souvent négligée émerge : « Quand un data center s’implante dans une ville, dans la foulée, c’est toute une économie numérique qui va se développer. Mais ça, on oublie de le dire ». L’expert quantifie : « Un emploi créé dans un data center, c’est 100 emplois derrière qui vont être développés dans la région ».
Cette dimension économique révèle la complexité des arbitrages territoriaux et la nécessité d’approches globales plutôt que sectorielles.
Conclusion : pour un débat apaisé et factuel
L’expertise d’Yves Grandmontagne révèle un paysage bien plus nuancé que ne le suggèrent les débats polarisés sur l’environnement. Ses conclusions principales méritent d’être retenues :
L’impact environnemental de l’IA est « réel, mais largement surestimé », selon ses termes. Cette réalité s’explique par plusieurs facteurs : la progression remarquable de l’efficacité énergétique, la relativité des consommations face à d’autres secteurs industriels, et l’évolution technologique constante vers plus de sobriété.
La géographie compte énormément dans cette équation. Les pratiques américaines, souvent critiquées, ne reflètent pas les approches européennes plus régulées et efficaces. Cette distinction géographique invite à contextualiser les critiques et à valoriser les bonnes pratiques.
L’avenir technologique s’oriente vers des solutions plus sobres : refroidissement en circuit fermé, IA de proximité, optimisation énergétique par l’IA elle-même. Ces évolutions suggèrent que les problèmes actuels sont transitoires et techniques plutôt que structurels.
Enfin, la dimension systémique révélée par cette analyse invite à dépasser les approches sectorielles. L’IA n’est pas seulement consommatrice d’énergie, mais potentiellement optimisatrice du système énergétique global. Cette perspective systémique constitue peut-être la clé d’un développement véritablement durable de l’intelligence artificielle.
Le message d’Yves Grandmontagne résonne comme un appel à la nuance et à la vigilance critique : « Restons prudents et restons sereins ». Dans un débat souvent émotionnel, cette sagesse technique offre une boussole précieuse pour naviguer entre les écueils du déni et du catastrophisme. Ce discours plus nuancé est sans doute moins vendeur que les avis extrêmes, carburant du café du commerce et des médias sociaux.
Cette interview montre finalement que la question de l’impact environnemental de l’IA ne trouve pas de réponse simple, mais nécessite une approche systémique, géographiquement située et techniquement informée. Elle constitue un point de départ indispensable pour tous ceux qui souhaitent dépasser les idées reçues et contribuer à un débat véritablement constructif sur l’avenir de notre société numérique.
Infographie sur les impacts de l’IA sur l’environnement
The post Impact environnemental de l’IA décryptage par un expert appeared first on Marketing and Innovation.