L’IA et le climat : fausse dichotomie et vrais enjeux

Le débat public sur l’intelligence artificielle et le climat oscille souvent entre deux extrêmes : d’un côté, l’IA est présentée comme le sauveur technologique qui optimisera nos réseaux et découvrira des solutions miracles ; de l’autre, elle est dépeinte comme un monstre énergétique, un désastre écologique dont l’empreinte carbone ne cesse de croître. Pour des expertes comme la Dre Sasha Luccioni, chercheuse et responsable IA & Climat chez Hugging Face, cette opposition est une “fausse dichotomie”. La réalité est bien plus complexe et nuancée. L’IA n’est ni bonne ni mauvaise pour le climat ; elle est un outil dont l’impact dépend entièrement de la manière dont nous la concevons, la mesurons et la déployons.

Cet article, inspiré par les thèmes abordés par la Dre Luccioni et d’autres chercheurs du domaine, explore les deux faces de cette médaille : le potentiel immense de l’IA pour l’action climatique, son coût environnemental souvent sous-estimé, et les effets systémiques qui pourraient annuler ses bénéfices.

Le versant positif : L’IA comme levier pour l’action climatique

Loin des fantasmes d’une IA généraliste qui résoudrait tout, les applications les plus impactantes pour le climat sont souvent des modèles spécialisés, développés en collaboration avec des experts du domaine et entraînés sur des données ciblées. Ces outils, souvent frugaux en ressources, agissent comme des super-assistants pour les scientifiques et les défenseurs de l’environnement.

Du micro au macro : des molécules à la planète

L’action de l’IA pour le climat s’observe à toutes les échelles :

  • Découverte moléculaire : La décarbonation de notre économie repose sur des avancées matérielles. L’IA accélère la découverte de nouveaux matériaux pour des batteries plus performantes, des catalyseurs pour la production d’hydrogène vert ou des ciments bas-carbone. Des instituts comme le Mila à Montréal travaillent activement sur ces sujets, utilisant l’IA pour simuler des millions de combinaisons moléculaires, une tâche impossible pour un humain.
  • Surveillance de la biodiversité et de la déforestation :
    • Écouter la forêt : Des projets comme Rainforest Connection utilisent de vieux téléphones portables équipés de microphones et d’une IA pour écouter la forêt en temps réel. L’IA est entraînée à reconnaître les sons spécifiques d’une tronçonneuse ou d’un camion, alertant les gardes forestiers d’une activité de déforestation illégale dès qu’elle commence.
    • Suivi par satellite : L’IA analyse des téraoctets d’images satellites pour cartographier la déforestation, détecter les émissions de méthane invisibles à l’œil nu (un puissant gaz à effet de serre), ou encore surveiller la santé des récifs coralliens. Ces “jumeaux numériques” de la planète nous offrent une vision globale et quasi instantanée de notre impact.
  • Amélioration des modèles climatiques : Les modèles climatiques traditionnels sont extrêmement lourds en calcul. L’IA permet de créer des émulateurs plus rapides ou d’analyser les résultats de simulations complexes pour affiner les prédictions, comme le mentionne le rapport de référence “Tackling Climate Change with Machine Learning”. Ce document de plus de 100 pages, co-écrit par des sommités comme David Rolnick et Yoshua Bengio, reste une feuille de route essentielle, détaillant des dizaines d’applications de l’IA dans la lutte contre le changement climatique.

Le coût caché : L’empreinte environnementale de l’IA

Si l’IA peut aider le climat, elle a aussi un coût direct, souvent invisible. L’analyse du cycle de vie (ACV) d’un modèle d’IA révèle des impacts à chaque étape.

1. La fabrication (Embodied Emissions)

Avant même d’être allumé, le matériel a une empreinte carbone. La fabrication des serveurs et surtout des GPU (processeurs graphiques) est très énergivore et gourmande en ressources. Un seul serveur haut de gamme peut représenter plus de 2,5 tonnes de CO2e. Sachant que les centres de données changent leurs GPU tous les 2-3 ans en raison de l’usure et de l’obsolescence, l’impact matériel est considérable.

2. L’entraînement (Training)

C’est l’étape la plus médiatisée. L’entraînement des grands modèles de langage (LLM) est une phase courte mais extrêmement intense. L’entraînement de GPT-3 (un modèle de 2020) a été estimé à plus de 500 tonnes de CO2e. Depuis, la taille et le coût des modèles ont explosé. Les recherches de EPOCH AI, un institut de recherche spécialisé, projettent une croissance exponentielle de la consommation d’énergie pour l’entraînement des modèles de pointe, une tendance qui dépasse largement les gains d’efficacité des puces.

3. Le déploiement (Inférence)

C’est le géant silencieux. Si l’entraînement est un sprint, le déploiement est un marathon. Chaque requête faite à un service comme ChatGPT consomme de l’énergie. Multiplié par des milliards de requêtes par jour, l’impact total de l’inférence peut représenter jusqu’à 70% du coût énergétique total d’un modèle sur son cycle de vie. Une étude a montré que la génération d’images ou de vidéos peut consommer jusqu’à 1000 fois plus d’énergie que la génération de texte.

Face à ce constat, des outils émergent pour apporter de la transparence. CodeCarbon, une bibliothèque open-source, permet aux développeurs d’estimer les émissions de CO2 de leur code. Elle démontre par exemple qu’exécuter un calcul dans une région alimentée par des énergies renouvelables (comme le Québec) plutôt que par du charbon (comme certaines régions des États-Unis) peut réduire l’empreinte carbone d’un facteur 50. Des initiatives comme l’AI Energy Score visent également à noter l’efficacité énergétique des modèles open-source pour guider les utilisateurs.

Les effets systémiques : le paradoxe de Jevons et l’effet rebond

Le plus grand danger n’est peut-être pas l’impact direct de l’IA, mais ses effets indirects et systémiques. Le paradoxe de Jevons, énoncé au 19ème siècle, se produit lorsque le progrès technologique, qui augmente l’efficacité avec laquelle une ressource est utilisée, finit par augmenter la consommation totale de cette ressource au lieu de la diminuer.

Satya Nadella, le PDG de Microsoft, a lui-même reconnu que l’IA pourrait être le “paradoxe de Jevons ultime”.

  • Effet rebond direct : Si l’IA rend les voyages en avion plus efficaces en optimisant les trajectoires, le coût des billets pourrait baisser, incitant plus de gens à voyager et annulant les gains unitaires. Si l’IA optimise l’extraction pétrolière, elle prolonge notre dépendance aux énergies fossiles.
  • Effets économiques indirects : L’IA accélère le cycle de vie des produits. L’émergence de l’IA générative crée un problème massif de déchets électroniques (e-waste), car elle pousse au renouvellement constant des smartphones et des ordinateurs pour faire tourner les derniers modèles. On estime que cela pourrait générer 2,5 millions de tonnes de déchets électroniques supplémentaires d’ici 2030.
  • Effet rebond temporel : L’IA nous fait gagner du temps (ex: Google Maps optimise nos trajets), mais que faisons-nous de ce temps gagné ? Souvent, nous le réinvestissons dans d’autres activités consommatrices. Une étude sur l’impact de Google Maps à Salt Lake City a montré que si les trajets individuels étaient plus efficaces, le temps gagné permettait aux gens de faire plus d’activités, menant à une consommation globale potentiellement plus élevée.

Conclusion : vers une IA éco-consciente

La discussion sur l’IA et le climat ne peut se satisfaire de slogans. Pour développer une approche lucide et responsable, plusieurs actions sont nécessaires :

  1. Nuancer le discours : Il faut arrêter de parler de “l’IA” comme d’un bloc monolithique. Un arbre de décision utilisé pour optimiser l’irrigation n’a rien à voir avec un modèle comme GPT-4. Il est crucial de comprendre quel type d’algorithme est adapté à quel problème.
  2. Mesurer et être transparent : Nous ne pouvons pas améliorer ce que nous ne mesurons pas. Des outils comme CodeCarbon doivent être généralisés. Les entreprises développant l’IA doivent être transparentes sur l’empreinte de leurs modèles, de la fabrication au déploiement.
  3. Adopter la frugalité : Le principe devrait toujours être de commencer par le modèle le plus simple et le plus léger possible, et de n’augmenter la complexité qu’en cas de nécessité absolue.
  4. Développer une conscience environnementale : Les développeurs, les entreprises et les utilisateurs doivent prendre conscience que chaque requête a un coût. Choisir d’utiliser un modèle plus petit, de limiter les requêtes inutiles ou de privilégier des fournisseurs d’énergie verte sont des actions concrètes.

L’intelligence artificielle est un outil d’une puissance phénoménale. La diriger vers la résolution des défis climatiques est une opportunité historique. Mais le faire sans conscience de son propre coût et des effets pervers qu’elle peut engendrer serait une erreur tragique. La véritable intelligence, finalement, ne sera pas dans l’algorithme, mais dans la sagesse avec laquelle nous choisirons de l’utiliser.


Sources et références

  • Luccioni, S. (2024). Diverses présentations et publications en tant que AI & Climate Lead chez Hugging Face.
  • Rolnick, D., Donti, P. L., Kaack, L. H., et al. (2019). Tackling Climate Change with Machine Learning. arXiv. https://arxiv.org/abs/1906.05433
  • EPOCH AI. (2023). Trends in the Power and Energy Use of AIhttps://epochai.org/
  • CodeCarbon. (Outil Open Source). Track and reduce CO2 emissions from your codehttps://codecarbon.io/
  • Jevons, W. S. (1865). The Coal Question. Le concept du paradoxe de Jevons.
  • Luccioni, S., Viguier, S., & Ligozat, A. L. (2022). Estimating the Carbon Footprint of BLOOM, a 176B Parameter Language Modelhttps://arxiv.org/abs/2211.02001
  • Rainforest Connection. Using acoustic monitoring to protect rainforestshttps://www.rfcx.org/
  • Wolfgang, K., & Scholl, G. (2018). Rebound Effects Caused by Artificial Intelligence and Automation in Private Life and Industry.
  • Gupta, U., et al. (2024). Generative AI Has a Massive E-Waste Problem. IEEE Spectrum.