ANALYSES

L’impact environnemental de l’IA générative et les solutions envisagées

février 6, 2025 6:34, Last Updated: février 6, 2025 6:34
By

À mesure que l’intelligence artificielle (IA) continue d’évoluer, son impact sur la société devient de plus en plus important. À côté de l’innovation technologique, un aspect moins discuté est celui de son appétit grandissant pour l’électricité. Sa demande en énergie s’accroît de façon exponentielle à mesure que la technologie progresse, l’IA générative étant déjà 10 fois plus gourmande en électricité que le web classique.

En plus de sa consommation électrique, l’essor de l’IA générative s’accompagne d’une empreinte environnementale croissante que ce soit la consommation d’eau pour refroidir les serveurs, les conditions d’extraction des matières premières ou le recyclage des déchets électroniques.

Au-delà de ChatGPT, qui a popularisé l’IA générative à son lancement en 2022, on assiste à une multiplication des outils venant de nouveaux opérateurs. Et rien qu’en France, près de 70 % des 18-24 ans déclarent utiliser l’IA générative, selon une enquête Ifop, ce qui laisse augurer une augmentation considérable du volume d’utilisation des IA dans les prochaines années.

Une consommation exponentielle d’énergie

L’entraînement d’un modèle d’IA sophistiqué nécessite une combinaison de données massives, une puissance de calcul avancée et des algorithmes performants. Considérons l’outil OpenAI GPT-3, un modèle d’IA composé de 175 milliards de paramètres, qui a été entraîné à l’aide de 1024 unités de traitement graphique (GPU) fonctionnant sans interruption pendant un peu plus d’un mois.

Mosharaf Chowdhury, professeur associé de génie électrique et d’informatique à l’Université du Michigan, estime que la session d’entraînement du TPG-3 a consommé environ 1,28 MWh d’électricité. Pour mettre cela en perspective, c’est l’équivalent de la consommation d’énergie d’un ménage moyen pendant 120 ans.

À mesure que l’IA devient de plus en plus partie prenante de notre vie quotidienne et que la base d’utilisateurs s’élargit, la consommation d’électricité cumulée augmente aussi. Selon une étude de l’Agence internationale de l’énergie (AIE), une réponse unique de ChatGPT consomme en moyenne 2,9Wh d’électricité – environ l’énergie nécessaire pour allumer une ampoule de 60 watts pendant trois minutes. C’est dix fois plus qu’une recherche sur Google.

Selon l’AIE, avec environ 200 millions d’interactions quotidiennes, la consommation quotidienne d’électricité de ChatGPT s’élève à plus de 500.000 KWh, soit à peu près l’équivalent des besoins quotidiens en électricité de 17.000 ménages. Chaque année, cela représente 182,5 millions de KWh.

Si Google décide d’intégrer l’IA générative dans les fonctions de son moteur de recherche, l’électricité supplémentaire nécessaire pourrait atteindre 10 térawatt-heures (TWh) par an, ce qui pourrait alimenter 700.000 foyers pendant une année entière.

Une hausse de 75 % des besoins en électricité d’ici 2026

Les data centers ou centre de données, qui stockent les données et fournissent les énormes capacités de calcul requises par l’intelligence artificielle, sont le socle de la technologie de l’IA générative.

L’un des aspects moins connus des centres de données est leur système de refroidissement. Pour éviter la surchauffe, ces centres nécessitent des solutions de refroidissement pour gérer la chaleur générée par des milliers de serveurs opérant 24 heures sur 24. Par conséquent, la consommation d’énergie des centres de données est importante, non seulement pour les faire fonctionner, mais surtout pour les refroidir.

En 2022, les centres de données du monde entier ont consommé environ 460 TWh d’énergie, selon le rapport de l’AIE. Ce chiffre représente près de 2 % de la demande mondiale en électricité. Cette consommation n’est pas uniquement due aux opérations d’IA ; près d’un quart, soit environ 110 TWh, est du aux activités de transactions des cryptomonnaies.

L’Agence internationale de l’énergie table sur une hausse de plus de 75 % en 2026 des besoins en électricité des centres de données, poussés par l’IA et les cryptomonnaies, par rapport à 2022 (un peu plus de 800 TWh contre 460 TWh). Cela correspond à la consommation électrique annuelle combinée de la France et l’Allemagne, d’après le cabinet britannique Deloitte. Cette consommation devrait presque tripler d’ici 2030.

À ce rythme, 40 % des data centers dédiés à l’intelligence artificielle seront confrontés à un approvisionnement en électricité insuffisant d’ici 2027, selon une étude du cabinet américain Gartner.

Une hausse de la production de CO2

L’entraînement d’un grand modèle de langage, capable de produire du texte, génère près de 300 tonnes de CO2, soit l’équivalent de 125 allers-retours entre New York et Pékin, ont estimé des chercheurs de l’université américaine Massachusetts Amherst en 2019.

Des chercheurs d’Oxford sont arrivés à peu près à la même conclusion en 2021, estimant qu’une seule session d’entraînement de GPT-3, le modèle d’OpenAI qui a sous-tendu l’élaboration de ChatGPT, produisait 224 tonnes de CO2. Or les entreprises doivent entraîner des milliers de modèles pour parvenir à des avancées, avant de rendre leur version publique.

Il est néanmoins compliqué d’évaluer avec précision l’émission de gaz à effet de serre de l’IA générative, de nombreux chercheurs et institutions internationales pointant un manque d’information sur les conditions de fabrication des modèles, les centres de données et l’absence de normes mondiales de mesure.

Une grande consommation en eau

GPT-3 consomme à peu près un demi-litre d’eau pour générer 10 à 50 réponses, selon une estimation prudente de chercheurs américains de l’université de Californie à Riverside et de l’université du Texas à Arlington.

Les centres de données nécessitent des systèmes de refroidissement qui consomment de grandes quantités d’eau. En tout, la demande accrue pour l’intelligence artificielle à travers le monde devrait représenter entre 4,2 et 6,6 milliards de mètres cubes d’eau en 2027, ce qui correspond à quatre à six fois la consommation annuelle du Danemark, souligne l’étude américaine publiée en 2023.

Le prochain GPT-5 qui promet des capacités encore plus grandes, engendrera en conséquence des exigences énergétiques encore plus élevées.

Une augmentation des déchets électroniques 

Cartes graphiques, serveurs, cartes mémoire : l’intelligence artificielle générative a généré 2.600 tonnes de déchets électroniques en 2023, selon une étude parue dans la revue scientifique Nature Computational Science.

Avec le boom de l’IA et sans aucune mesure prise pour limiter cette pollution, ce chiffre pourrait atteindre 2,5 millions de tonnes en 2030, selon les chercheurs, soit l’équivalent de 13,3 milliards de smartphones jetés.

Par ailleurs, les serveurs informatiques et les puces nécessaires à l’IA impliquent l’utilisation de métaux rares, dont l’extraction intensive, notamment en Afrique, repose sur des procédés polluants, comme l’a noté l’Agence de la transition écologique en France.

Stratégies de développement pour une « IA durable »

Alors que les besoins énergétiques des centres de données montent en flèche, les principaux fournisseurs de services numériques comme Amazon, Microsoft et Google s’engagent à atteindre des objectifs environnementaux significatifs.

Chacun s’est engagé à alimenter ses centres de données avec de l’énergie renouvelable, en explorant les technologies innovantes permettant de minimiser la consommation d’électricité et de mieux équilibrer la demande sur le réseau électrique.

Les efforts de ces entreprises comprennent l’amélioration de l’efficacité des puces et des serveurs, en réduisant les besoins de refroidissement, qui est l’une des plus grandes dépenses en énergie des centres de données.

La réalité de la mise en place d’une « IA durable » se heurte à un découplage entre l’accélération de l’évolution des IA génératives et la faiblesse de créations de solutions énergétiques durables alors que les besoins énergétiques continuent de progresser. Sam Altman, PDG d’OpenAI, a souligné ce point lors de la réunion annuelle du Forum économique mondial qui s’est tenue à Davos en janvier 2024.

Il a déclaré que l’évolutivité future de la technologie de l’IA devait dépendre de percées dans les technologies énergétiques, en particulier parce que la consommation d’énergie prévue des technologies d’IA avancées dépassera probablement les estimations actuelles. Ce défi devrait motiver, selon lui, les investissements dans les sources d’énergie alternatives, notamment dans la technologie nucléaire.

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.

Voir sur epochtimes.fr
PARTAGER