AI laws overlook environmental damage – here’s what needs to change

Les lois sur l’IA négligent les dommages environnementaux : voici ce qui doit changer

Plus de 200 lois ont été élaborées pour réglementer l’IA dans plus de 100 pays. Beaucoup d’entre eux se concentrent sur des questions telles que la vie privée, les préjugés, la désinformation, la sécurité et la cybersécurité plutôt que sur les conséquences environnementales de l’IA.

L’IA est une industrie énergivore et assoiffée. Cela entraîne d’énormes émissions de gaz à effet de serre, de la pollution et une perte de nature. Ces impacts proviennent en partie de la fabrication et de l’utilisation de « puces informatiques complexes » à forte intensité énergétique, de carbone et d’eau, appelées unités de traitement graphique (GPU), pour la formation de modèles d’IA, ainsi que de l’augmentation des déchets électroniques.

Mes recherches sur les réponses réglementaires à l’IA dans l’UE et au Royaume-Uni mettent en évidence à quel point les lois ignorent souvent les implications environnementales de cette grande technologie. L’absence d’obligations strictes dans la législation et la politique en matière d’IA est préoccupante.

Il existe des conséquences environnementales à toutes les étapes du cycle de vie de l’IA. De la fabrication du matériel d'IA, à la formation des modèles d'IA, en passant par le déploiement et l'utilisation de l'IA jusqu'à l'élimination du matériel d'IA.

La fabrication des composants repose sur l’extraction d’éléments de terres rares. Cela peut contaminer le sol et l’eau, polluer l’air et entraîner la perte d’habitats naturels et forestiers. La formation de modèles d’IA est incroyablement gourmande en énergie et en eau. Une équipe de chercheurs a estimé en 2025 que la formation de GPT-3 – un grand modèle de langage publié par OpenAI en 2020 – consommait environ 700 000 litres d’eau douce pour la production d’électricité et le refroidissement des centres de données.

Même si les modèles d’IA deviennent de plus en plus économes en énergie, à mesure que les modèles deviennent plus grands et que l’IA prolifère, la consommation globale d’énergie et les émissions associées augmentent. Et l’énergie consommée lors de l’utilisation de l’IA, notamment pour générer du texte ou des images, dépasse largement celle utilisée lors de la formation.

Cependant, il est difficile de mesurer avec précision les effets environnementaux de l’IA, en partie à cause du manque de transparence des entreprises technologiques.

Lorsque la loi européenne sur l'IA est entrée en vigueur le 1er août 2024, il s'agissait de la « première loi globale au monde » sur l'IA. La loi sur l’IA reconnaît certaines des conséquences environnementales de l’IA. Cela exige également que « les systèmes d’IA soient développés et utilisés de manière durable et respectueuse de l’environnement ».

Il souligne que les fournisseurs d’IA doivent divulguer des informations sur « les données de consommation d’énergie connues ou estimées du modèle ». Mais bien que prometteuses, ces informations ne doivent être fournies qu’à la demande de l’AI Office, créé au sein de la Commission européenne.

Les tours de refroidissement industrielles de chaque centre de données nécessitent de grandes quantités d’eau. sutthilak.c10/Shutterstock

D’autres mesures incluent l’élaboration de codes de conduite pour évaluer et minimiser « l’impact des systèmes d’IA sur la durabilité environnementale ». Mais ce n'est pas obligatoire. Dans l’ensemble, la loi sur l’IA est intentionnellement anthropocentrique. Il déclare que : « L'IA devrait être une technologie centrée sur l'humain. Elle devrait servir d'outil pour les gens, dans le but ultime d'augmenter le bien-être humain. »

Le Royaume-Uni n’a pas de législation spécifique à l’IA. L’IA n’est actuellement réglementée que par les lois existantes. Le livre blanc du gouvernement britannique de 2023 sur la réglementation de l’IA, qui propose un cadre réglementaire pour l’IA, ne donne pas du tout la priorité à la durabilité. Bien que le livre blanc reconnaisse que l’IA peut contribuer aux technologies permettant de répondre au changement climatique, il n’aborde pas spécifiquement les risques environnementaux :

Le cadre réglementaire proposé ne cherche pas à répondre à tous les défis sociétaux et mondiaux plus larges pouvant être liés au développement ou à l’utilisation de l’IA. Cela inclut les questions liées à… la durabilité. Ce sont des questions importantes à considérer… mais elles sortent du cadre de nos propositions pour un nouveau cadre global de réglementation de l’IA.

Un avenir transparent ?

Plus de transparence commence par le fait que les développeurs d’IA doivent divulguer des informations sur la quantité d’énergie et d’eau consommée, la quantité de carbone émise, les éléments de terres rares extraits et la quantité de plastique utilisée pendant le processus de production de l’IA.

Ces données fournissent ensuite une base de référence. Des objectifs et des limites appropriés pourront alors être fixés en matière d’efficacité énergétique, d’émissions de carbone et d’utilisation de l’eau afin d’améliorer la durabilité de l’IA.

Plusieurs propositions ont été faites sur la manière de réduire les émissions de carbone et la consommation d'eau, comme la formation de modèles d'IA sur des réseaux énergétiques à moins forte intensité de carbone ou dans des centres de données moins gourmands en eau.

Les avertissements concernant les effets environnementaux pourraient indiquer aux consommateurs quelle quantité de dioxyde de carbone est émise ou quelle quantité d’eau est consommée pour chaque requête. En outre, un système d'étiquetage basé sur l'IA pourrait refléter les systèmes d'étiquetage d'efficacité énergétique existants de l'UE, qui indiquent clairement l'efficacité énergétique des appareils, en les classant du plus économe en énergie (vert foncé) au moins économe en énergie (rouge).

Les propositions incluent un système de notation IA « Energy Star » et un système de certification sociale et environnementale. Cela aiderait les consommateurs à faire des choix éclairés sur les systèmes d’IA à utiliser ou sur l’opportunité d’utiliser ou non l’IA. Des incitations fiscales et financières pourraient également encourager les entreprises technologiques à faire des choix plus durables.

En intégrant la durabilité dans les lois sur l’IA, grâce à ce type de mesures, la planète peut être dans une certaine mesure protégée parallèlement à l’expansion rapide de l’IA.


Louise Du Toit, maître de conférences en droit, Southampton Law School, Université de Southampton

Photo de Markus Stickling sur Unsplash

A lire également