L’utilisation quotidienne de ChatGPT, outil désormais ancré dans la routine de millions d’utilisateurs, n’est pas sans répercussions environnementales, comme l’a récemment souligné Shaolei Ren, chercheur à l’université de Riverside aux États-Unis. En plus des débats moraux et technologiques autour de l’intelligence artificielle générative, son empreinte écologique soulève de nombreuses questions.
L’année dernière, Greenly avait déjà estimé que la version GPT-3 de ChatGPT émettait 240 tonnes de CO2 équivalent (CO2e), soit l’équivalent de 136 allers-retours entre Paris et New York. Aujourd’hui, Shaolei Ren met en lumière la quantité de ressources nécessaires pour une simple requête, comme l’écriture d’un courriel de 100 mots. Selon ses calculs, cela équivaut à la consommation d’une bouteille d’eau pleine et à assez d’énergie pour alimenter 14 ampoules LED pendant une heure.
Les chiffres deviennent préoccupants lorsqu’on les multiplie par le nombre d’utilisateurs à travers le monde. Si seulement 10 % des travailleurs américains écrivaient un courriel hebdomadaire via ChatGPT, cela nécessiterait 435 millions de litres d’eau par an, soit la consommation quotidienne de tous les foyers du Rhode Island. Côté électricité, cela permettrait d’éclairer la ville de Washington pendant 20 jours.
Le problème majeur, selon Ren, vient des datacenters où sont hébergés les serveurs d’OpenAI. Ces centres de calcul, situés souvent dans des régions arides comme l’Arizona ou l’Iowa, consomment énormément d’eau pour refroidir les équipements, exacerbant ainsi les problématiques de stress hydrique dans ces zones.
Cet impact environnemental invite donc à réfléchir à la manière dont ces technologies sont gérées et à envisager des solutions plus durables.
Source: https://www.futura-sciences.com/
La rédaction