Décryptage
De la conception d’un modèle à son utilisation, l’IA générative s’avère extrêmement énergivore. « Le Monde » détaille les raisons de cette voracité, alors que les usages sont en pleine expansion.
« Nos serveurs fondent. (…) Nous allons devoir introduire certaines limites. » Deux jours après avoir intégré une nouvelle option de génération d’images à ChatGPT, le 25 mars, le patron d’OpenAI, Sam Altman, ne cachait pas être dépassé. En cause, l’engouement suscité par la possibilité de transformer, grâce à l’intelligence artificielle (IA), des photos dans des styles différents, et particulièrement dans le style du Studio Ghibli, du producteur de films d’animation japonais Hayao Miyazaki. Annonçant 1 million d’inscriptions supplémentaires en une heure le 31 mars, Sam Altman reconnaît le lendemain faire face à des risques de ralentissement de ChatGPT, voire des pannes.
Cet épisode met en lumière le gouffre énergétique que représente l’IA générative. Son développement effréné devrait plus que doubler la demande d’électricité des centres de données dans le monde d’ici à 2030. Selon un rapport publié en avril par l’Agence internationale de l’énergie (AIE), elle devrait atteindre environ 945 térawattheures, soit plus de la consommation totale d’électricité du Japon. A cette échéance, les centres de données consommeront un peu moins de 3 % de l’électricité mondiale, note l’agence. « Aux Etats-Unis, les centres de données représentent près de la moitié de la croissance attendue de la demande d’électricité d’ici à 2030 », prédit l’AIE.
Les projets de data centers prolifèrent outre-Atlantique. Dévoilé par Donald Trump, Stargate comprend une enveloppe de 500 milliards de dollars (441 milliards d’euros) de fonds publics et privés et prévoit jusqu’à 10 nouveaux centres de données. Preuve que l’énergie est au centre du développement de l’IA, Meta et Microsoft envisagent de relier leurs centres de données directement à des centrales nucléaires. Ces projets anticipent le succès annoncé de l’IA dans les années à venir. Désormais intégrés à Bing, WhatsApp et bientôt Google, ces modèles seront partout dans nos téléphones, soulevant des questions majeures en matière d’impact écologique.
Mais alors pourquoi l’IA générative est-elle davantage énergivore que les technologies grand public que nous utilisions jusqu’alors ? Pour y répondre, il faut d’abord comprendre les deux phases du fonctionnement de ces robots : l’entraînement du modèle, puis l’inférence, c’est-à-dire son utilisation au quotidien.

La phase d’entaînement nécessite de rassembler des volumes massifs de données. L’IA générative apprend en ingurgitant : un modèle de texte (comme GPT) est nourri de livres, d’articles, de sites web ; un modèle d’image, comme DALL-E, doit avaler des millions d’images légendées. Une fois cette base de données constituée et nettoyée, on crée un réseau de neurones, inspiré du cerveau humain : un cerveau artificiel encore vide, sans souvenirs, qui ne sait rien au départ. Il va alors apprendre par essais, en faisant des erreurs. On lui soumet des phrases ou images partiellement masquées, et on lui demande de prédire ce qui manque.
A chaque erreur, l’IA ajuste automatiquement ses calculs grâce à un mécanisme appelé rétropropagation, qui lui permet de corriger ses connexions internes et de progresser. Ce processus est particulièrement long et coûteux : selon les estimations, l’entraînement du GPT-4 d’OpenAI a coûté plus de 100 millions de dollars et consommé 50 gigawattheures d’énergie, soit suffisamment pour alimenter Paris pendant près de deux jours.



Depuis la démocratisation de l’accès à l’IA générative, avec le lancement de ChatGPT en 2022, son entraînement semble désormais moins problématique que son utilisation massive. « Avant cela, de grands modèles existaient déjà mais leurs usages restaient restreints aux seuls domaines de la recherche et de l’ingénierie », explique Valentin Goujon, spécialiste de l’intelligence artificielle et doctorant en sociologie au Medialab de Sciences Po. De 100 millions d’utilisateurs hebdomadaires fin 2023, ChatGPT aurait atteint les 400 millions en février 2025 pour doubler de taille en quelques mois, avec 800 millions d’utilisateurs actifs par semaine en avril, selon son fondateur.
Un article présenté en 2023 par les scientifiques Sasha Luccioni, Emma Strubell et Yacine Jernite s’est pour la première fois penché de manière sérieuse sur le coût de l’utilisation de ces IA, montrant que les milliards de requêtes (aussi appelées « prompt » en anglais) envoyées chaque jour pouvaient in fine rattraper le coût énergétique et carbone de l’entraînement d’un grand modèle de langage.
Toutes les requêtes n’impliquent pas le même niveau de complexité, ni la même dépense énergétique. Un facteur déterminant réside dans la taille des modèles, c’est-à-dire le nombre de paramètres qu’il contient : plus ceux-ci sont nombreux, plus le modèle gagne en performance, au prix d’une consommation énergétique accrue.
Bonjour [Nom de l'interlocuteur],
Je vous écris pour rappeler le paiement en attente de ma facture d'un montant de 3 200 €, relative à la campagne publicitaire réalisée il y a plus de deux mois. Cette prestation a nécessité plusieurs semaines de travail, et je n'ai toujours pas reçu de règlement.
Je vous informe qu'en vertu des conditions stipulées dans le devis signé, une majoration de 10 % sera appliquée à la facture si le paiement n'est pas effectué d'ici la fin de cette semaine.
Je vous remercie de votre retour.
Cordialement,
[Votre nom]
[Vos coordonnées]
Énergie: 0,698 Wh
≈ 3,67% d'une charge de téléphone (19Wh)
Prenons maintenant un exemple plus complexe pour la machine : la reformulation d'un texte, ici un mail.
Plus la question est longue, plus le modèle doit traiter d'informations pour comprendre plus finement le contexte de la requête. Dans sa réponse, l'IA va devoir adapter le ton et apporter une cohérence dans sa reformulation. Comme l'utilisateur a demandé une réponse longue et nuancée, les besoins en calcul n'en seront que plus importants.
Dans ce genre d'interactions, l'utilisateur va la plupart du temps demander au modèle d'effectuer des modifications. Chaque nouvelle instruction de l'utilisateur relance la totalité du processus. Le modèle relit l'historique, reformule la tâche, puis génère un nouveau texte. Cette itération constante implique des calculs redondants et une consommation énergétique cumulative.
Ce cas d'usage illustre bien comment des tâches en apparence simples – comme rédiger ou reformuler un email – mobilisent des ressources computationnelles importantes de manière invisible. Ces deux seuls échanges ont consommé 1,3 Wh, soit presque 7% d'une charge de téléphone.
Classer, générer un texte, le résumer… Les besoins en calcul varient également selon la nature des tâches réalisées. Certains modèles, dits spécialisés, se concentrent sur des fonctions précises, comme la classification d’avis en ligne. A l’inverse, les modèles dits généralistes, les plus prisés du grand public, sont censés pouvoir répondre à toutes sortes de requêtes. Ils doivent « pouvoir produire des pixels tout comme du texte en anglais ou en français », décrypte Sasha Luccioni, responsable de l’IA et du climat pour la start-up Hugging Face. Or, « le problème c’est que ces modèles consomment 20 à 30 fois plus d’énergie qu’un petit modèle n’ayant qu’une seule tâche ».
Mais comment peut-on calculer précisément le coût énergétique d’une requête ? Chaque interaction avec une IA générative mobilise un ensemble de matériels et d’infrastructures :
- une série de composants informatiques comme la carte graphique (GPU), le processeur (CPU), la mémoire vive (RAM), le stockage, le réseau ;
- un centre de données dont le bâtiment regroupe des milliers de serveurs ;
- les « frais généraux » qui englobent la climatisation, le refroidissement des serveurs, l’alimentation de secours en cas de panne d’électricité
Parmi toutes les tâches qu'on peut confier à une IA générative, la génération d'image fait partie des plus gourmandes en énergie – juste derrière la vidéo. Pour mieux comprendre ce que cela implique concrètement, suivons pas à pas une interaction typique.
Lorsque l'utilisateur formule sa demande le modèle commence par analyser le texte pour en extraire les concepts clés : « ville », « futuriste », « coucher de soleil ». Cette étape repose sur une conversion du langage en vecteurs numériques via des réseaux de neurones. Elle active déjà plusieurs milliards de paramètres, même si aucun pixel n'est encore généré.
La création de l'image commence à partir d'un « bruit » visuel, qu'il affine progressivement jusqu'à obtenir la scène demandée. Cette phase demande une grande puissance de calcul car chaque pixel est choisi, corrigé et recomposé des dizaines de fois.
Même si cela semble être un simple ajout ou changement, l'IA ne fait pas une retouche comme sur un logiciel d'infographie. Elle repart de zéro, en tenant compte de l'historique et des nouvelles consignes.
La consommation énergétique pour la génération d’images par IA est plus difficile à quantifier que celle de textes. En raison de l’arrivée rapide de ces nouveaux modèles et du manque de transparence des entreprises, les chercheurs peinent à suivre l’évolution du secteur.
Dans l’état actuel des connaissances, on estime que la génération d’une image consommerait deux fois plus qu’un texte. Elle s'élèverait à 287 Wh en moyenne, soit 15 fois la charge d'un téléphone.
Le nœud du problème est qu’il est encore difficile de connaître parfaitement la consommation énergétique d’une requête. « Aucune compagnie de la Big Tech n’a voulu évaluer leur modèle parce que ce n’est éventuellement pas de la très bonne presse pour eux », déplore Sasha Luccioni. Les plus grosses entreprises du secteur cultivent l’opacité en la matière.
Commentaire