IA utile ou IA futile ?

Par La rédaction, 17 juin 2025 à 22:51

Énergivores

C'est un fait, l’IA repose sur des infrastructures complexes et énergivores. On parle d’eau, d’électricité, de CO₂… Souvent d'ailleurs sur un ton alarmiste. Mais avant de juger, encore faut-il comprendre. Qu’est-ce qui consomme vraiment ? À quel moment ? Et surtout pour quoi faire ? Et si la question devait être posée autrement? Que remplace l’IA ? Et est-ce que le bilan est si mauvais que ça ?

Ce qui consomme vraiment et ce qui est fantasmé


Quand on parle d’empreinte carbone des intelligences artificielles, on pense souvent à ChatGPT. Mais l’IA est bien plus vaste. Traduction automatique, analyse d’image, recommandation, reconnaissance vocale, aide à la décision… Par jour, ce sont des milliards d’interactions.


L’entraînement des modèles est de loin la phase la plus gourmande. Former GPT-3 aurait ainsi consommé plus de 1 287 MWh et généré entre 500 et 550 tonnes de CO₂, selon les estimations disponibles (source : Ekwateur / Scientific American). C'est une opération lourde certes, mais cela reste une opération ponctuelle.


En comparaison, l’inférence, c'est-à-dire le moment où l’IA répond à une demande utilisateur, consomme beaucoup moins d’énergie par requête (entre 0,3 et 2 Wh selon les modèles et les conditions), mais comme ces interactions se comptent en millions chaque jour, cette consommation, bien que faible individuellement, devient significative à grande échelle si l'on en croit Epoch.ai et l'académie de Versailles.


Et c’est là que le bât blesse. Google, Meta, Amazon, Microsoft... Tous intègrent l’IA à grande échelle. Résultat : un impact cumulé important mais... très difficile à mesurer. Les données sont rares, les comparaisons peu fiables. Et la mise en perspective avec d’autres usages numériques (streaming, jeux, mails) est quasi inexistante (le rapport Arcep à ce sujet, publié en mai dernier, fait figure d'exception).


Qu'est-ce qui fait tourner l'IA ?


L’IA ne flotte pas dans les airs. Elle vit dans des datacenters et ces infrastructures doivent être refroidies, alimentées et maintenues. Pourquoi ? Parce que l’IA est gourmande en GPU (processeurs graphiques spécialisés dans les calculs massifs), donc en densité, donc en dissipation thermique. Et qui dit densité dit refroidissement massif.


Une partie non négligeable de la consommation d’un data center est donc liée à cela. On mesure d’ailleurs cette consommation avec un indicateur, le Power Usage Effectiveness. Le PUE est un marqueur simple et compare la consommation totale d’un data center à celle utilisée réellement par les serveurs. Un PUE de 2 veut dire qu’il faut consommer 2 kWh pour en livrer 1 aux machines (le reste correspond à la consommation pour faire tourner la climatisation, les pertes, etc.). Un bon PUE aujourd’hui tourne autour de 1,2, beaucoup plus sobre qu’il y a dix ans, mais encore perfectible.


Soyons clair cependant. Si l’on veut sérieusement réduire l’empreinte de l’IA, la première étape est de commencer par mieux l’estimer. À l'heure actuelle en effet, un même calcul n’a pas du tout la même empreinte carbone, selon qu’il est effectué en France (dominé par le nucléaire bas carbone), en Chine (alimenté au charbon), ou aux USA (mix variable).


Et l’eau dans tout ça ? On en parle beaucoup ces derniers temps, à juste titre. Oui, certains data centers consomment de l’eau pour refroidir les infrastructures et dans le même temps, cette consommation permet de réduire drastiquement l’électricité utilisée par la climatisation. L'utilisation de l'eau se mesure aussi avec un indicateur, le WUE, pour Water Usage Effectiveness. Il exprime la quantité d’eau utilisée par kilowattheure d’électricité consommé par les serveurs. On estime aujourd'hui qu'un « bon » WUE est inférieur à 1,5 L/kWh.


On parle de ce que l’IA coûte, moins de ce qu’elle permet


Car l’IA, bien utilisée, peut être un merveilleux outil de réduction d’impact. Optimisation logistique, maintenance prédictive, détection de fuites énergétiques, pilotage intelligent des réseaux électriques… Ce ne sont pas des fantasmes de start-up. Ce sont des usages concrets, déjà en production, et si l’IA ne sauvera pas la planète à elle seule, elle a clairement le potentiel d'alléger le fardeau.


Mais pour que cela fonctionne, encore faut-il penser sobre, dès la conception. Aujourd’hui, beaucoup de projets IA sont lancés en mode démo, hype ou gadget. Résultat : on balance un modèle géant, dans le cloud, pour faire une tache que trois lignes de code auraient pu gérer. C’est là qu’intervient une autre approche, plus fine, plus stratégique : celle des agents spécialisés. À l’inverse des modèles généralistes ultra-massifs (type LLM), un agent bien calibré, dédié à une tâche précise, sera bien plus léger, rapide, et économe et cette tendance est portée par les besoins concrets du terrain.


Une IA ne doit pas être géniale. Elle doit être pertinente, « juste » suffisante, et surtout contextuelle. Ce n’est pas l’IA qui doit devenir sobre. C’est notre manière de la déployer.


Un cadre global peut-il exister ?


Aujourd’hui, les normes sont encore floues, les indicateurs rarement comparables d’un pays à l’autre, et les obligations souvent orientées « reporting » plus que transformation.


Côté infrastructure, les choses bougent. PUE en baisse, refroidissement repensé, matériel plus résilient, conception modulaire… Tous ces efforts convergent vers une IA mieux hébergée, mieux intégrée, moins gaspilleuse.


Attention toutefois à ne pas se bercer d’illusions. Même si chaque modèle devient plus efficace, l’usage global explose. Et cette tendance va continuer. Et puis soyons honnêtes : même si chaque modèle IA devient dix fois plus efficace (énergiquement parlant), la croissance en termes d'usage est exponentielle et dans cinq ans, le risque est de consommer dix fois plus. L’usage est en train exploser. Assistants personnels, objets connectés, IA embarquée, automatisation de tout et n’importe quoi…


Si vous trouvez que l’IA consomme trop aujourd’hui, ne regardez pas demain. Car le principal enjeu n’est pas de rendre les IA plus sobre mais de leur trouver un usage pertinent, maîtrisé et stratégique. Car pendant que l’on s’offusque d’un modèle de langage entraîné une fois, on ne compare pas avec les flux constants du fast fashion, des vidéos absurdes ou des contenus sans fond. Beaucoup d’applications actuelles relèvent du gadget, ou du moins, n’apportent pas toujours une valeur à la hauteur de leur coût.


Il y a urgence à se demander à quoi sert ce que l’on développe, ce que l’on consomme, et pas seulement combien cela coûte.


Est-ce que cela suffira à inverser la tendance ? Probablement pas. Mais ne nous égarons pas. L’enjeu principal n’est pas de faire disparaître l’empreinte énergétique de l’IA. L’enjeu principal est de lui donner du sens et de la cohérence.


Sinon nous allons droit dans le mur.




L’avenir ne semble pas s’orienter vers un super modèle IA unique, mais plutôt vers une galaxie d’agents spécialisés, conçus pour des tâches précises, optimisés pour consommer le minimum nécessaire.

Parution magazine N°49 (juin, juillet, août)

Qu’en pensez-vous ?

Donnez-nous votre avis

Pour vérifier que vous êtes une intelligence humaine, merci de répondre à ce questionnement lunaire.