L’IA a soif et sa consommation d’eau n’est pas prête de s’arrêter

Par Germain de Lupiac
27 juillet 2025 12:12 Mis à jour: 27 juillet 2025 17:54

Dans un monde où l’intelligence artificielle (IA) redessine les contours de nos sociétés – des assistants vocaux aux algorithmes des médias sociaux, en passant par les images générées – une question cruciale reste peu abordée : quel est le coût environnemental de cette révolution technologique ?

Si la consommation énergétique des centres de données (data centers) alimentant l’IA fait déjà l’objet d’un débat, un autre impact, tout aussi préoccupant, commence à émerger : la consommation d’eau, massive et exponentielle.

Alors que le changement climatique accentue les tensions sur cette ressource vitale, l’IA, souvent perçue comme la solution miracle de nos défis modernes, pourrait paradoxalement aggraver la crise hydrique mondiale.

La face cachée de la consommation d’eau de l’IA

L’IA, et plus particulièrement l’IA générative, repose sur des infrastructures colossales que sont les centres de données.

Ces immenses installations traitent les milliards de calculs nécessaires pour entraîner et faire fonctionner des modèles comme ChatGPT, Grok ou Gemini. Mais ces machines chauffent intensément lors des calculs.

Les centres de données modernes utilisent alors des systèmes de refroidissement à base d’eau pour dissiper la chaleur générée par les processeurs et les unités de traitement graphique, ces derniers étant particulièrement sollicités par les calculs complexes de l’IA.

Par exemple, le GPU H100 de Nvidia, largement utilisé pour entraîner les grands modèles de langage, consomme environ 700 watts et génère une chaleur considérable. Une partie de l’eau utilisée s’évapore dans le processus de refroidissement, tandis que le reste est souvent retraité ou rejeté, mais pas toujours de manière durable.

Selon une étude de l’Université de Californie à Riverside, poser entre 10 et 30 questions à ChatGPT (GPT-3) consomme l’équivalent d’une petite bouteille d’eau de 500 ml. À l’échelle mondiale, avec des milliards d’utilisateurs interagissant quotidiennement avec des outils d’IA, cette consommation s’accumule rapidement.

En 2022, Microsoft, principal partenaire d’OpenAI, a vu sa consommation d’eau augmenter de 34 % par rapport à l’année précédente, atteignant 6,4 milliards de litres, soit l’équivalent de 2500 piscines olympiques. Google, de son côté, a enregistré une hausse de 20 % sur la même période, avec une consommation estimée à 24 milliards de litres en 2023.

Ces chiffres, bien que colossaux, ne représentent qu’une fraction de ce que l’avenir pourrait réserver : d’ici 2027, les chercheurs estiment que l’IA pourrait consommer entre 4,2 et 6,6 milliards de mètres cubes d’eau par an, soit la moitié de la consommation annuelle du Royaume-Uni.

Dans les régions où l’eau douce est déjà rare, comme certaines zones des États-Unis ou de la Chine, cette demande croissante exacerbe les tensions hydriques.

Une empreinte hydrique sous-estimée

Si l’impact énergétique de l’IA est de plus en plus documenté – l’Agence internationale de l’énergie (AIE) prévoit que la consommation électrique des centres de données doublera d’ici 2030 pour atteindre l’équivalent de la consommation du Japon – l’empreinte hydrique reste largement méconnue. Pourtant, elle est tout aussi critique.

Shaolei Ren, chercheur à l’Université de Californie, souligne que l’entraînement d’un modèle comme GPT-3 peut consommer jusqu’à 700.000 litres d’eau douce, un chiffre qui triple si les centres de données sont situés dans des régions plus chaudes, comme en Asie.

À cela s’ajoute une consommation indirecte liée à la production d’électricité : les centrales thermiques ou nucléaires, qui alimentent souvent ces centres, nécessitent également d’importantes quantités d’eau pour leur propre refroidissement.

Cette opacité autour de la consommation d’eau est aggravée par le manque de transparence des géants de la tech. Bien que des entreprises comme Microsoft et Google publient des rapports environnementaux, les données précises sur l’impact hydrique de leurs opérations restent fragmentaires.

Les coûts environnementaux de l’IA sont souvent considérés comme des « secrets d’entreprise », rendant difficile leur évaluation. Cette situation a conduit des experts, comme Kate Crawford, professeure à l’Université de Californie du Sud, à appeler à une collaboration entre l’industrie, les chercheurs et les législateurs pour orienter les conceptions techniques vers une plus grande durabilité.

Les régions sous pression : un enjeu local et global

L’impact de la consommation d’eau par l’IA ne se limite pas à des chiffres globaux.

Il touche directement les communautés locales, en particulier dans les zones déjà affectées par le stress hydrique. Aux États-Unis, par exemple, Microsoft a construit un centre de données dédié à l’IA à Des Moines, dans l’Iowa, une région où les ressources en eau sont sous pression. Ce centre, utilisé pour entraîner les grands modèles de langage d’OpenAI, est particulièrement gourmand en eau.

En Espagne, le mouvement « Tu nube seca mi rio » (« Ton nuage assèche ma rivière ») dénonce l’impact des centres de données sur les rivières locales. En France, où le gouvernement ambitionne de faire du pays un leader européen de l’IA, les centres de données, comme celui d’Amazon à Wissous (Essonne), suscitent des inquiétudes similaires.

Le changement climatique aggrave encore cette situation. Selon un rapport de France Stratégie publié en janvier 2025, la consommation d’eau en France pourrait doubler d’ici 2050 dans un scénario de réchauffement climatique intense, en raison notamment des besoins croissants en irrigation agricole.

Dans ce contexte, l’IA, en concurrence avec d’autres secteurs comme l’agriculture (qui représente 58 % de la consommation d’eau douce en France), pourrait accentuer les conflits d’usage. Dans les régions du sud de la France, où les ressources en eau renouvelable ont déjà diminué de 14 % en dix ans, cette concurrence pourrait devenir un enjeu politique majeur.

L’IA « accélère la crise climatique », selon une chercheuse

L’IA générative utilise « 30 fois plus d’énergie » qu’un moteur de recherche classique, alerte la chercheuse Sasha Luccioni, qui veut sensibiliser à l’impact environnemental de cette nouvelle technologie.

Reconnue comme l’une des 100 personnalités les plus influentes du monde de l’IA par le magazine américain Time en 2024, cette Canadienne d’origine russe cherche depuis plusieurs années à quantifier les émissions de programmes comme ChatGPT ou Midjourney.

« Je trouve ça particulièrement décevant qu’on utilise l’IA générative pour faire une recherche sur Internet », déplore la chercheuse rencontrée par l’AFP à la conférence ALL IN dédiée à l’intelligence artificielle à Montréal.

Bien qu’ils se soient engagés à parvenir à la neutralité carbone d’ici à la fin de la décennie, les géants du monde de la tech voient leurs émissions de gaz à effet de serre augmenter en 2023 à cause de l’IA : +48 % pour Google par rapport à 2019 et +29 % pour Microsoft par rapport à 2020.

Dans sa dernière étude, la chercheuse montréalaise a démontré que produire une image en haute définition à l’aide d’une intelligence artificielle consomme autant d’énergie que recharger entièrement la batterie de son téléphone portable.

À l’heure où de plus en plus d’entreprises veulent démocratiser cette nouvelle technologie en l’intégrant sous plusieurs formats (robot conversationnel, appareils connectés, recherches en ligne), Sasha Luccioni prône la « sobriété énergétique ».

L’idée ici n’est pas de s’opposer à l’IA, souligne-t-elle, mais plutôt de choisir les bons outils et les utiliser judicieusement.

Des solutions à l’horizon

Face à cette crise, les géants technologiques et les chercheurs explorent des solutions pour réduire l’empreinte hydrique des IA. L’une des pistes les plus prometteuses concerne les technologies de refroidissement.

Les systèmes traditionnels, qui évaporent de grandes quantités d’eau pour dissiper la chaleur, sont progressivement remplacés par des alternatives plus durables. Par exemple, le refroidissement par immersion, où les serveurs sont plongés dans un liquide non conducteur, permet de réduire drastiquement la consommation d’eau. De son côté, Microsoft expérimente des data centers sous-marins, comme son projet Natick, qui utilisent l’eau de mer pour le refroidissement, préservant ainsi les ressources d’eau douce mais pouvant avoir un effet local sur l’écosystème.

Une autre approche consiste à optimiser les algorithmes d’IA pour qu’ils consomment moins d’énergie. Des techniques comme la « distillation » permettent de créer des modèles plus légers, capables d’effectuer les mêmes tâches avec moins de calculs. En 2024, Meta AI a annoncé avoir réduit de 30 % la consommation énergétique de certains de ses modèles grâce à ces innovations, ce qui se traduit par une diminution indirecte de la consommation d’eau.

La localisation des data centers joue également un rôle clé. Installer ces infrastructures dans des régions riches en eau ou à proximité de sources d’énergie renouvelables, comme l’hydroélectricité ou l’éolien, peut limiter leur impact. Par exemple, la Norvège et l’Islande, avec leurs climats froids et leurs abondantes ressources hydriques, attirent de plus en plus d’entreprises technologiques.

En 2024, l’Union européenne a introduit des lignes directrices encourageant les data centers à adopter des pratiques plus durables, notamment en matière de gestion de l’eau.

Soutenez Epoch Times à partir de 1€

Comment pouvez-vous nous aider à vous tenir informés ?

Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.