Les avancées impressionnantes de l’IA ne sont pas sans soulever de nombreuses questions, notamment quant aux coûts énergétiques et environnementaux des algorithmes et des modèles d’apprentissage automatique sur lesquels elle repose.
Avoir une base de connaissances qui fournit des clés de compréhension ainsi que des pistes de réflexion est essentiel pour utiliser de manière éclairée et raisonnée les IA génératives, notamment d’un point de vue environnemental.
Quelques chiffres clés à avoir en tête
Même s’il demeure difficile de quantifier précisément la puissance électrique consommée par une requête Google ou ChatGPT, en raison de la complexité de la chaîne énergétique mobilisée et de l’opacité entretenue par les principaux géants du web, la connaissance des ordres de grandeurs suivants est instructive.
- Une requête d’environ 400 tokens sur ChatGPT / GPT-4o mini (modèle à 35 milliards de paramètres) consomme environ 2 Wh [1] d’électricité (ou 2 g de CO2 rejeté) [2], soit plus de 6 fois la consommation d’une recherche Google classique estimée à 0,3 Wh [3]. Pour un modèle moins frugal tel que Meta / Llama 3.1 405B (405 milliards de paramètres) une requête d’environ 400 tokens consomme 55 Wh (équivalent à 55 g de CO2 émis) !
- La création d’une image en haute définition par une IA consomme autant d’énergie que la recharge complète d’un téléphone portable.
- Les centres de données (data centers) liés à l’IA et aux crypto-monnaies ont consommé près de 460 TWh (460×1012 Wh) d’électricité en 2022, soit environ 2% de la production mondiale. De nombreux experts s’accordent à dire que ce pourcentage aura vraisemblablement doublé d’ici 2026 [4].

Tableau comparant l’impact énergétique de deux modèles d’IA (source www.comparia.beta.gouv.fr) - Transciption
OpenAI/GPT-4o mini Le plus petit des deux modèles sur lesquels repose ChatGPT d’OpenAI, lancé en juillet 2024. Impact énergétique de la discussion : - Taille du modèle : 35 milliards paramètres - Taille du texte : 396 tokens - Energie consommée : 1.83 Wh Ce qui correspond à : - 1.83 g de CO2 émis - 35 min de fonctionnement d’une ampoule LED - 3 min de fonctionnement d’une vidéo en ligne Meta/Llama 3.1 405B Sorti en juillet 2024, ce modèle est le plus grand modèle de la série Llama de Meta, optimisé pour des tâches complexes de programmation, de mathématique et de raisonnement. Impact énergétique de la discussion : - Taille du modèle : 405 milliards paramètres - Taille du texte : 377 tokens - Energie consommée : 55 Wh Ce qui correspond à : - 55 g de CO2 émis ; - 17h00 de fonctionnement d’une ampoule LED ; - 1h00 de fonctionnement d’une vidéo en ligne.
L’apprentissage profond et l’inférence sont énergivores
Les LLM (Large Language Model) des IA génératives s’appuient sur des réseaux profonds de neurones artificiels qui essaient d’imiter les processus en jeu dans le cerveau humain. L’entraînement [5] (Deep learning) et l’inférence [6] des réseaux profonds de neurones artificiels nécessitent une puissance de calcul considérable afin de traiter un nombre colossal de données (Big Data). Ces calculs sont assurés par des processeurs GPU (Graphics Processing Unit) [7] spécifiques dédiés aux IA génératives tel que le « Nvidia A100 tensor core GPU » dont la puissance électrique consommée est de 250 W et dont le prix dépasse les 10 000 euros. Ces GPU ultraperformants et très haut de gamme dérivent de ceux présents dans les cartes graphiques des « PC gamer » utilisés par les joueurs de jeux vidéo.
À titre d’exemple, il a fallu 2048 GPU A100 pour entraîner en février 2023 pendant 23 jours le modèle d’IA générative LLaMA 1 propulsé par le géant du web Meta.
Les modèles déployés à grande échelle, comme ceux utilisés dans des applications comme les assistants vocaux (Siri, Alexa) ou les services de recommandation, nécessitent des ressources de calcul permanentes qui consomment de l’énergie électrique en continu.
L’IA est très loin de l’optimisation énergétique réalisée par le cerveau humain
Le cerveau est composé d’environ 86 milliards de neurones. Chaque neurone est connecté en moyenne à environ 2 000 autres par des connexions appelées synapses. Le cerveau humain contient donc environ 172 000 milliards de synapses dont chacune d’entre elles peut effectuer « un calcul » élémentaire plusieurs centaines de fois par seconde [8]. D’une manière très simplifiée, on peut donc estimer que la puissance de calcul de l’ensemble du cerveau humain est donc d’environ 17,2×1015 OPS [9], c’est-à-dire dix-sept millions deux cent mille milliards d’opérations par seconde pour une puissance consommée de 20 W équivalente à celle d’une lampe à LED !
À titre de comparaison l’un des fleurons des processeurs GPU, le « NvidiaA100 Tensor Core GPU » utilisé par beaucoup de modèles d’IA génératives, a une puissance brute de calcul d’environ 19,5×1012 OPS ce qui, en terme d’ordre de grandeur, revient à un millième de celle du cerveau humain pour une puissance consommée de 250 W !
Le cerveau humain a une puissance brute de calcul 1000 fois plus grande que celle du meilleur processeur GPU actuel pour une puissance consommée 10 fois plus faible !
Pour reprendre l’exemple des 2048 Nvidia A100 Tensor Core GPU nécessaires, par exemple, pour l’entraînement du modèle LLaMA 1de Meta en 2023, l’écart avec les performances énergétiques d’un cerveau humain devient abyssal. Pour une puissance brute de calcul du même ordre de grandeur que celle du cerveau humain, la puissance consommée par l’IA de Meta est 25 600 fois plus importante ! N’oublions pas également qu’une IA est spécialisée dans un domaine bien précis (générer des textes, des images...) alors que le cerveau humain est par essence multitâche.
Nous sommes donc très loin du mythe du grand remplacement des humains par les IA, tant d’un point de vue des performances, que de la puissance consommée.
Pour exécuter une seule tâche spécialisée (générer un texte, une image...) et pour arriver à une puissance brute de calcul du même ordre de grandeur que celle d’un cerveau humain, la puissance consommée par une IA est environ 25 000 fois plus grande ! Contrairement à une IA générative, le cerveau humain est résolument multitâche et est une merveille d’optimisation énergétique.
Comparer le coût énergétique et environnemental des grands modèles de langage
Le simulateur en ligne EcoLogits s’appuie sur une bibliothèque Python qui permet de comparer la consommation d’énergie et l’empreinte environnementale liées à l’utilisation des grands modèles de langage d’IA génératives lors de la phase d’inférence par le biais d’API.
Cet outil est développé et maintenu par GenAI Impact, organisation à but non lucratif dédiée à l’évaluation et à la mise en évidence de l’empreinte environnementale des technologies d’IA générative.