Către o IA mai durabilă: UNESCO solicită reducerea impactului energetic al LLM-urilor

Către o IA mai durabilă: UNESCO solicită reducerea impactului energetic al LLM-urilor

În scurt : UNESCO și UCL susțin că ajustări în proiectarea și utilizarea LLM-urilor pot reduce semnificativ consumul lor de energie fără a compromite performanța, solicitând astfel o regândire a modului de utilizare la nivel global.

În timp ce Summitul AI for Good și-a deschis porțile ieri la Geneva, un studiu comun realizat de UNESCO și University College London (UCL) dezvăluie că simple ajustări în proiectarea și utilizarea modelelor de limbaj pot reduce cu 90% consumul lor de energie, fără a afecta performanța. Într-un context în care amprenta de mediu a IA devine o problemă strategică, această constatare invită la regândirea modului în care LLM-urile sunt antrenate, implementate și utilizate la scară mondială.

Un consum invizibil, dar exponențial

Fiecare cerere adresată unei IA generative precum ChatGPT consumă în medie 0,34 watt-oră. O cifră aparent inofensivă, până când este multiplicată cu utilizarea masivă a acestor instrumente. Astăzi, peste un miliard de persoane le folosesc: o singură interacțiune zilnică a fiecăruia dintre ei cu unul dintre aceste instrumente corespunde unui consum anual de peste 310 gigawatt-oră, echivalentul electricității consumate anual de aproximativ 3 milioane de locuitori dintr-o țară africană cu venituri reduse.
Cu toate acestea, doar 5% dintre experții IA africani au acces la infrastructurile necesare, un dezechilibru evident care adâncește prăpastia digitală față de țările cu venituri mari, unde se concentrează majoritatea capacităților de calcul.

Trei pârghii pentru o IA mai puțin consumatoare de energie

Experimentele cu mai multe LLM-uri open source le-au permis cercetătorilor de la UCL să identifice trei abordări pentru a minimiza amprenta de carbon a IA generative:
  • Utilizarea unor modele mai mici și specializate: Contrar ideii preconcepute conform căreia "mai mare" înseamnă "mai inteligent", rezultatele UCL arată că modele compacte, specializate pe sarcini precise (rezumat, traducere, extragere de informații) permit reducerea de zece ori a consumului energetic fără pierderi de performanță. 
    Această logică de "specializare" se regăsește în arhitecturile Mixture of Experts (MoE), care activează doar modulele relevante pentru fiecare sarcină, evitând astfel risipa de resurse și optimizând eficiența energetică;
  • Reducerea lungimii interacțiunilor: Prompts și răspunsuri mai concise pot permite o reducere de peste 50% a consumului energetic, conform testelor efectuate;
  • Comprimarea modelelor: Tehnici precum cuantificarea permit reducerea dimensiunii modelelor fără pierderi notabile de precizie, cu câștiguri energetice de aproximativ 44%. Aceste abordări, cunoscute în cercetare, rămân încă marginale în implementările comerciale.
Adoptată în unanimitate de cele 194 de state membre în noiembrie 2021, "Recomandarea privind etica inteligenței artificiale" a UNESCO include un capitol dedicat impacturilor de mediu ale acestor tehnologii. Acest nou raport se înscrie în această continuitate, solicitând guvernelor și companiilor să investească în cercetare și dezvoltare pentru o IA mai economicoasă, etică și accesibilă, dar și în educația utilizatorilor, astfel încât aceștia să conștientizeze consecințele energetice ale practicilor lor digitale.