« Réinventez demain avec l’IA »

Pour un futur plus respectueux de l'environnement dans le domaine de l'intelligence artificielle : l'UNESCO exhorte à minimiser la consommation d'énergie des grands modèles de langage.

Jeudi 10 Juillet 2025

Alors que le Sommet AI for Good a débuté hier à Genève, une étude menée conjointement par l'UNESCO et l'University College London (UCL) met en lumière que de simples modifications dans la conception et l'utilisation des modèles de langage peuvent diminuer jusqu'à 90 % leur dépense énergétique, sans pour autant altérer leur efficacité. Dans un contexte où l'impact environnemental de l'IA devient un enjeu majeur, cette observation incite à repenser la manière dont les LLMs sont développés, déployés et utilisés à travers le monde.

Une consommation imperceptible, mais exponentielle

Pour un futur plus respectueux de l\'environnement dans le domaine de l\'intelligence artificielle : l\'UNESCO exhorte à minimiser la consommation d\'énergie des grands modèles de langage.

Chaque demande effectuée auprès d'une IA générative comme ChatGPT utilise en moyenne 0,34 wattheure. Un chiffre qui semble insignifiant, jusqu'à ce qu'on le multiplie par l'utilisation massive de ces outils. Aujourd'hui, plus d'un milliard de personnes les emploient : une seule interaction quotidienne de chacun d'eux avec l'un de ces outils équivaut à une consommation annuelle de plus de 310 gigawattheures, soit l'équivalent de l'électricité consommée chaque année par environ 3 millions d'habitants d'un pays africain à faible revenu.

Or, seulement 5 % des experts en IA africains ont accès aux infrastructures nécessaires, un déséquilibre flagrant qui accentue la fracture numérique avec les pays à revenu élevé, où se concentre la majorité des capacités de calcul.

Trois axes pour une IA moins gourmande en énergie

Des tests effectués avec plusieurs LLMs open source ont permis aux chercheurs de l'UCL de déterminer trois stratégies pour minimiser l'empreinte carbone de l'IA générative:

Utiliser des modèles plus petits et spécialisés : Contrairement à l'idée communément admise selon laquelle "plus grand" est synonyme de "plus intelligent", les résultats de l'UCL démontrent que des modèles compacts, axés sur des tâches spécifiques (résumé, traduction, extraction d'informations), permettent de diviser par dix la consommation énergétique sans perte de performance. On retrouve cette logique de "spécialisation" dans les architectures Mixture of Experts (MoE), qui activent uniquement les modules pertinents pour chaque tâche, évitant ainsi le gaspillage de ressources et optimisant l'efficacité énergétique ;

Réduire la longueur des interactions : Des prompts et des réponses plus courtes peuvent permettre une diminution de plus de 50 % de la consommation énergétique, selon les tests réalisés ;

Compresser les modèles : Des techniques comme la quantification permettent de réduire la taille des modèles sans perte significative de précision, avec à la clé des économies d'énergie de l'ordre de 44 %. Ces approches, connues dans la recherche, restent encore peu répandues dans les déploiements commerciaux.

Adoptée à l'unanimité par les 194 États membres en novembre 2021, la "Recommandation sur l'éthique de l'intelligence artificielle" de l'UNESCO comprend un chapitre dédié aux impacts environnementaux de ces technologies. Ce nouveau rapport s'inscrit dans cette continuité, incitant les gouvernements et les entreprises à investir dans la R&D d'une IA plus sobre, éthique et accessible, mais aussi dans l'éducation des utilisateurs, afin qu'ils prennent conscience des conséquences énergétiques de leurs pratiques numériques.

Ils nous font confiance

uttscheid.eu
www.surplus-lemarsouin.com
sbk-cosmetique.com
www.teaandmore.lu
accesscamp.fr
missionmsd.fr