
Jean-Marc Jancovici pose la question sans détour : quelle place peut occuper l’intelligence artificielle dans un monde qui devra, tôt ou tard, se décarboner ? Le Shift Project vient de publier un rapport intermédiaire intitulé « Intelligence artificielle, données, calculs : quelles infrastructures dans un monde décarboné ?« , un document ouvert aux commentaires, qui cherche à évaluer l’impact énergétique et climatique de l’IA. Carbone 4, de son côté, publie une note éloquemment titrée : « L’IA Générative… du changement climatique ! », alertant sur la trajectoire insoutenable d’une technologie aussi énergivore qu’opaque.
Les chiffres parlent d’eux-mêmes. En 2021, le numérique représentait 4 % des émissions mondiales de CO2, soit l’équivalent des émissions de l’ensemble des camions et utilitaires lourds. La moitié provient de l’électricité nécessaire aux serveurs, réseaux et terminaux, l’autre de la fabrication des composants. En France, il pèse 4,4 % de l’empreinte carbone nationale, avec une croissance annuelle de 6 % à l’échelle mondiale et de 2 à 4 % en France. Chaque gain d’efficacité est aussitôt effacé par l’augmentation des usages.
L’IA générative ne déroge pas à la règle. Dix requêtes ChatGPT par jour génèrent 100 kg de CO₂ par an, selon Carbone 4. En 2022, le numérique absorbait 10 % de la production électrique mondiale, soit cinq fois plus d’électricité que la consommation mondiale totale en 1945. Une dynamique qui interroge : l’IA est-elle une priorité énergétique alors que d’autres secteurs – transport, agriculture, logement, industrie – doivent aussi absorber des ressources limitées pour se décarboner ?
Dans ce contexte, trois questions pratiques émergent :
- Où sont les chiffres ? NVIDIA, qui domine 80 % du marché des puces IA, ne communique pas sur l’empreinte environnementale de ses processeurs. TSMC, OpenAI, Anthropic, Microsoft et Google ne sont guère plus transparents. Pourtant, en trois ans, les émissions des géants du cloud ont bondi de 50 %.
- Quels arbitrages pour les ressources limitées de demain ? Face à des besoins concurrentiels en électricité, en matériaux et en financement, l’IA est-elle un choix rationnel ?
- Quels usages sont réellement justifiables ? Faut-il que le transport aérien, la publicité et l’industrie du divertissement captent des capacités de calcul précieuses alors que d’autres secteurs cherchent à réduire leur empreinte carbone ?
Loin d’un rejet technologique, cette analyse invite à un débat structurant : à quelles fins doit être mobilisée la puissance informatique de demain ? Car dans un monde contraint, chaque térawattheure devra être justifié.
Une explosion de la demande énergétique et financière
En 2022, la consommation électrique des centres de données s’élevait à 460 TWh, soit plus du double des estimations de 2021 (200 TWh). D’ici 2030, les projections varient de 700 TWh à 2 100 TWh selon les scénarios. En comparaison, la consommation annuelle totale de la France s’établissait à 454 TWh en 2020.
Le facteur clé de cette augmentation est l’essor des modèles d’IA générative, dont l’entraînement mobilise des ressources considérables. Le modèle GPT-3 a nécessité 1 287 MWh pour son entraînement initial, soit l’équivalent de plusieurs centaines de foyers français alimentés pendant un an. GPT-4 et ses successeurs exigent encore plus de puissance de calcul, allongeant la charge sur les centres de données au fil des inférences.
Cette consommation énergétique se traduit directement en coûts opérationnels. En moyenne, l’électricité représente 20 à 40 % des dépenses d’un centre de données. Un hyperscaler consommant 10 TWh par an dépense environ 1 milliard d’euros en électricité, sur la base d’un prix moyen de 100 €/MWh. Avec la hausse de la demande énergétique, les opérateurs de centres de données négocient des contrats d’achat d’électricité (PPA) sur des durées de 10 à 20 ans, une stratégie qui verrouille les prix mais les engage sur des volumes croissants.
L’IA générative, moteur d’une inflation des investissements technologiques
Le coût d’infrastructure pour soutenir l’essor de l’IA atteint des niveaux inédits. Les centres de données spécialisés en calcul haute performance (HPC) nécessitent des capex (dépenses d’investissement) supérieurs à 10 000 €/m², contre 3 000 à 5 000 €/m² pour un centre classique.
En 2023, Microsoft a dépensé 10 milliards de dollars pour soutenir OpenAI et équiper ses infrastructures Azure en GPU NVIDIA H100, dont le prix unitaire atteint 35 000 €. Alphabet, Meta et Amazon ont suivi des trajectoires similaires, investissant chacun plus de 30 milliards de dollars dans leurs infrastructures cloud et IA depuis 2022.
Le coût des semi-conducteurs est un autre facteur clé. La demande en GPU a fait exploser les prix :
- En 2020, un cluster de 1 000 GPU coûtait environ 30 millions d’euros.
- En 2023, un cluster équivalent dépasse 50 millions d’euros.
- D’ici 2026, la montée en puissance des modèles pourrait nécessiter des clusters valant plus de 100 millions d’euros.
Les géants du cloud sont aujourd’hui les seuls capables d’absorber ces coûts. Les startups et entreprises cherchant à développer leurs propres modèles doivent louer l’accès aux GPU, générant une dépendance croissante aux hyperscalers. Un entraînement de modèle de grande taille sur Microsoft Azure ou Google Cloud peut coûter jusqu’à 10 millions d’euros, excluant de facto de nombreux acteurs du marché.
La montée en puissance des centres de données : un défi énergétique et financier
La densité énergétique des centres de données croît rapidement. Les processeurs graphiques (GPU), essentiels au fonctionnement des modèles d’IA, voient leur consommation électrique multipliée. La génération précédente affichait un Thermal Design Power (TDP) de 250 W, contre plus d’1 kW aujourd’hui pour les puces les plus avancées.
Aux États-Unis, la montée en puissance des infrastructures pousse les opérateurs à diversifier leurs sources d’approvisionnement. Amazon, Microsoft et Oracle explorent des solutions nucléaires modulaires, tandis que Meta a annoncé la construction de trois centrales à gaz naturel dédiées à ses centres de données, totalisant 2,3 GW de capacité. Dans le sud-est du pays, 20 GW supplémentaires de centrales à gaz sont prévus, impliquant des émissions de 80 MtCO2e par an.
En Europe, la situation est critique. En Irlande, les centres de données consomment déjà plus de 20 % de l’électricité nationale, dépassant la consommation résidentielle urbaine. En France, la consommation électrique du numérique a atteint 11 % de la demande nationale en 2022 et pourrait tripler d’ici 2040.
La construction de nouveaux centres nécessite des investissements massifs. En 2024, Google a annoncé 1 milliard d’euros d’investissement en France pour de nouveaux centres de données IA. Le coût d’un centre de 1 GW, capable de supporter l’entraînement des plus grands modèles, est estimé entre 5 et 10 milliards d’euros.
Ces infrastructures sont financées par des fonds souverains, des capital-risqueurs et des dettes à long terme, accentuant la pression sur les entreprises technologiques pour générer du revenu via des services IA premium. Ce modèle économique pousse à une monétisation agressive de l’IA, via des abonnements payants et l’intégration dans des offres SaaS.
Quels leviers pour une IA plus soutenable financièrement et énergétiquement ?
L’oligopole des hyperscalers renforce une asymétrie économique. Des alternatives, comme le cloud fédéré européen (GAIA-X), peinent à émerger faute de financements. L’UE pourrait imposer des obligations de mutualisation des infrastructures IA.
L’optimisation des algorithmes et l’entraînement décentralisé sur des infrastructures plus légères (edge computing) restent sous-exploités. Des initiatives comme TinyML ou les modèles IA open-source légers pourraient réduire la pression sur les centres de données.
L’explosion de la demande électrique pousse les géants du cloud à conclure des contrats d’achat d’électricité (PPA) de long terme. Une taxation différenciée selon le mix énergétique utilisé pourrait inciter à une plus grande transparence.
Les investissements en centres de données sont aujourd’hui motivés par une anticipation de rentabilité à long terme, sans certitude sur l’adoption massive des services IA. Une régulation financière du marché pourrait éviter un surinvestissement à risque, similaire à la bulle dot-com des années 2000.
L’IA, un choix stratégique ou un luxe énergétique ?
L’essor de l’intelligence artificielle générative pose une question fondamentale : dans un monde où les ressources énergétiques et matérielles seront de plus en plus limitées, à quelles priorités allouerons-nous notre capacité de calcul ?
Faut-il concentrer cette puissance sur des usages critiques pour la transition écologique – optimisation des réseaux électriques, réduction des déchets industriels, amélioration de l’efficacité énergétique des bâtiments – ou accepter qu’une part croissante serve à perfectionner des algorithmes publicitaires, des assistants conversationnels ou des flux de contenus automatisés ?
Si l’IA est un accélérateur technologique, elle est aussi un révélateur de nos choix de société. Sommes-nous prêts à arbitrer rationnellement entre innovation et sobriété, ou allons-nous laisser la dynamique du marché imposer une trajectoire énergivore dont nous ne maîtrisons ni les coûts, ni les conséquences ?
- La femtech Fizimed lève 4 millions d’euros pour déployer ses dispositifs médicaux en Europe et aux États-Unis - 13/03/2025
- Mirakl vaut-il vraiment 3,5 milliards de dollars ? - 13/03/2025
- Shopify, Klarna et Mistral unis contre l’exode US / Mention pris à son propre piège / Startups, l’État peut-il éternellement jouer les premiers rôles ? - 13/03/2025