Intelligence artificielle : ChatGPT pourrait engloutir plus de 22 TWh par an, un appétit énergétique colossal
L’intelligence artificielle fascine, intrigue, promet monts et merveilles. Mais derrière les démonstrations spectaculaires, les réponses instantanées et les outils “magiques” du quotidien, une réalité beaucoup plus matérielle s’impose : celle d’une consommation électrique massive, appelée à croître encore. Selon une estimation récente fondée sur l’activité actuelle de ChatGPT, le robot conversationnel d’OpenAI pourrait consommer à lui seul plus de 22 térawattheures d’électricité par an pour traiter les requêtes de ses utilisateurs.
Autrement dit, l’IA générative n’est pas seulement une révolution logicielle. Elle devient aussi un sujet énergétique majeur.
Une machine mondiale à répondre, jour et nuit
Le succès de ChatGPT a pris une ampleur considérable. L’outil compterait désormais environ 900 millions d’utilisateurs actifs chaque semaine et entre 1,2 et 1,5 milliard d’utilisateurs mensuels. Rapporté au volume de requêtes, cela représenterait plus de 3,2 milliards de demandes par jour, soit environ 1 170 milliards sur une année.
C’est ce flux permanent qui change l’échelle du problème. Chaque question posée, chaque texte généré, chaque explication fournie, chaque ligne de code écrite mobilise des serveurs, des puces spécialisées, des centres de données et des quantités d’électricité sans commune mesure avec les usages numériques classiques.
L’étude citée estime qu’une requête moyenne adressée à la version actuelle du modèle consommerait autour de 18,9 wattheures. Ce chiffre peut paraître abstrait. Mais multiplié par des milliards de requêtes quotidiennes, il conduit à un total d’environ 60,7 gigawattheures par jour.
Une consommation annuelle équivalente à celle d’un petit pays
Sur douze mois, cette activité atteindrait ainsi environ 22 150 gigawattheures, soit 22,15 térawattheures. Pour donner un ordre de grandeur, une telle consommation dépasse celle de certains États entiers. Le texte source compare même ce niveau de dépense électrique à celui de pays comme la Slovénie ou Porto Rico.
Vu autrement, l’électricité absorbée chaque année par ChatGPT suffirait à alimenter plus de 2,1 millions de foyers américains pendant un an. Ce n’est plus ici une question marginale de “coût du numérique”, mais un enjeu industriel de premier rang.
Et encore, il ne s’agit là que du traitement des requêtes, c’est-à-dire de l’usage courant du service par les utilisateurs. L’entraînement des modèles, lui aussi extrêmement gourmand en puissance de calcul, vient s’ajouter à cette facture invisible.
Un coût énergétique de plusieurs milliards de dollars
À partir du prix moyen de l’électricité commerciale aux États-Unis à la fin de 2025, cette consommation annuelle représenterait une facture d’environ 3 milliards de dollars. À l’échelle d’une seule requête, le coût électrique resterait faible, autour de 0,0033 dollar. Mais à l’échelle de centaines de milliards de questions, l’addition devient considérable.
Ce point mérite d’être souligné : plus ChatGPT entre dans les usages quotidiens de masse, plus son coût énergétique cesse d’être une abstraction technique. Il devient un élément structurel de l’économie de l’IA.
Les promoteurs de ces technologies insistent volontiers sur les gains de productivité, sur l’accélération du travail intellectuel ou sur le confort offert à l’utilisateur. Ils parlent beaucoup moins du fait qu’une partie croissante de ces gains repose sur des infrastructures énergivores, qui devront être alimentées en permanence.
Bien plus qu’une recherche Google
Le texte met également en lumière un autre contraste : une requête sur ChatGPT consommerait beaucoup plus qu’une recherche classique sur Google. L’ordre de grandeur avancé est frappant. Là où une requête traditionnelle sur un moteur de recherche utiliserait environ 0,3 wattheure, une requête moyenne traitée par ChatGPT dépasserait largement ce niveau, jusqu’à être plusieurs dizaines de fois plus énergivore selon les hypothèses retenues.
Cette différence s’explique facilement. Une recherche classique renvoie essentiellement vers des pages existantes. Un modèle conversationnel, lui, calcule une réponse, la compose, l’ajuste, parfois la raisonne, et peut désormais intégrer texte, image, audio, vidéo ou code. Plus il “réfléchit”, plus il consomme.
L’essor des modèles dits de raisonnement, conçus pour prendre davantage de temps avant de répondre et traiter des problèmes plus complexes, accentue encore cette tendance. En clair, plus l’IA devient sophistiquée, plus son coût énergétique grimpe.
Le vrai angle mort de la révolution IA
Le sujet est d’autant plus sensible que l’intelligence artificielle est souvent présentée comme un horizon inévitable, presque naturel, du progrès. Or ce progrès a un socle matériel très concret : centrales électriques, réseaux, refroidissement, eau, semi-conducteurs, bâtiments, câbles, climatiseurs géants, maintenance permanente.
L’illusion d’une intelligence “immatérielle” se dissipe dès lors qu’on regarde les chiffres. Derrière la conversation fluide avec un robot, il y a une infrastructure lourde, très lourde même, qui doit fonctionner sans interruption pour nourrir l’appétit d’une humanité désormais habituée à poser ses questions à une machine.
Ce décalage entre l’image propre, fluide, presque aérienne de l’IA, et sa réalité énergétique brute, constitue sans doute l’un des grands angles morts du débat public.
Former les modèles : un autre gouffre
À l’usage quotidien s’ajoute la phase d’entraînement des grands modèles de langage. Là encore, les chiffres avancés donnent une idée du changement d’échelle. L’entraînement de GPT-3 avait déjà nécessité plus d’un million de kilowattheures. Celui de GPT-4 aurait demandé plus de 62 millions de kilowattheures.
Pour les modèles les plus récents, les données précises ne sont pas publiques. Mais tout indique que les besoins sont encore plus élevés, avec des phases multiples d’entraînement, de réentraînement, d’optimisation et de spécialisation. En réalité, personne à l’extérieur des grandes entreprises de l’IA ne connaît exactement la facture énergétique complète de ces systèmes.
Ce manque de transparence n’est pas anodin. Il montre que l’économie réelle de l’IA reste partiellement opaque, alors même que ses effets sont appelés à structurer de plus en plus de secteurs.
Une rentabilité énorme… malgré tout
Le paradoxe est là : même avec une facture énergétique colossale, le modèle économique reste extrêmement rentable. L’étude évoque environ 50 millions d’abonnés payants, répartis entre plusieurs formules. En retenant des hypothèses prudentes, les revenus annuels liés aux abonnements dépasseraient 15 milliards de dollars.
Autrement dit, les coûts électriques estimés pourraient être couverts par moins de trois mois de recettes d’abonnement. Cela explique pourquoi la course à l’IA ne ralentit pas. Même énergivore, elle reste potentiellement très lucrative.
Le problème n’est donc pas seulement économique. Il est politique, stratégique et civilisationnel : quelle société veut-on bâtir si une part croissante de l’activité intellectuelle passe par des outils dont le fonctionnement exige des volumes d’énergie comparables à ceux de pays entiers ?
L’intelligence artificielle promet d’écrire, corriger, traduire, programmer, enseigner, conseiller, résumer, assister. Très bien. Mais avec quelle base matérielle ? Avec quelle énergie ? Et à quel prix collectif ?
Le cas de ChatGPT montre qu’il ne suffit plus de parler d’innovation. Il faut désormais parler de centrales, de réseau, de souveraineté énergétique, de dépendance technologique et de coût réel. L’IA n’est pas tombée du ciel. Elle repose sur une consommation gigantesque, appelée à augmenter avec l’audio, la vidéo, les images et les modèles toujours plus complexes.
La vraie question n’est donc plus de savoir si l’IA va transformer le monde. C’est déjà fait. La question est de savoir si nos sociétés ont pleinement mesuré le prix énergétique de cette transformation.
- Source : Breizh-Info












