Alors que le Sommet AI for Good a ouvert ses portes hier à Genève, une étude conjointe de l’UNESCO et de l’University College London (UCL) révèle que de simples ajustements dans la conception et l’usage des modèles de langage peuvent réduire de 90 % leur consommation d’énergie, sans affecter leur performance. Dans un contexte où l’empreinte environnementale de l’IA devient un enjeu stratégique, ce constat invite à repenser la manière dont les LLMs sont entraînés, déployés et utilisés à l’échelle mondiale.
Une consommation invisible, mais exponentielle
Chaque requête adressée à une IA générative telle que ChatGPT consomme en moyenne 0,34 wattheure. Un chiffre apparemment anodin, jusqu’à ce qu’on le multiplie par l’usage massif de ces outils. Aujourd'hui, plus d’un milliard de personnes les utilisent : une seule interaction quotidienne de chacun d'eux avec l'un de ces outils correspond à une consommation annuelle de plus de 310 gigawattheures, soit l’équivalent de l’électricité consommée chaque année par environ 3 millions d'habitants d'un pays africain à faible revenu.
Or, seuls 5 % des experts IA africains ont accès aux infrastructures nécessaires, un déséquilibre criant qui creuse la fracture numérique avec les pays à revenu élevé, où se concentre l'essentiel des capacités de calcul.
Trois leviers pour une IA moins énergivore
Des expériences avec plusieurs LLMs open source ont permis aux chercheurs de l'UCL d'identifier trois approches pour minimiser l'empreinte carbone de l'IA générative:
-
Utiliser des modèles plus petits et spécialisés : Contrairement à l’idée reçue selon laquelle "plus grand" rime avec "plus intelligent", les résultats de l’UCL montrent que des modèles compacts, spécialisés sur des tâches précises (résumé, traduction, extraction d’informations) permettent de diviser par dix la consommation énergétique sans perte de performance.
On retrouve cette logique de "spécialisation" dans les architectures Mixture of Experts (MoE), qui activent uniquement les modules pertinents à chaque tâche, évitant ainsi le gaspillage de ressources et optimisant l’efficacité énergétique ; -
Réduire la longueur des interactions : Des prompts et des réponses plus concis peuvent permettre une réduction de plus de 50 % de la consommation énergétique, selon les tests menés ;
-
Compresser les modèles : Des techniques comme la quantification permettent de réduire la taille des modèles sans perte notable de précision, avec à la clé des gains énergétiques de l’ordre de 44 %. Ces approches, connues dans la recherche, restent encore marginales dans les déploiements commerciaux.
Adoptée à l’unanimité par les 194 États membres en novembre 2021, la "Recommandation sur l’éthique de l’intelligence artificielle "de l’UNESCO intègre un chapitre dédié aux impacts environnementaux de ces technologies. Ce nouveau rapport s’inscrit dans cette continuité, appelant gouvernements et entreprises à investir dans la R&D d’une IA plus sobre, éthique et accessible, mais aussi dans l’éducation des usagers, afin qu’ils prennent conscience des conséquences énergétiques de leurs pratiques numériques.