W kierunku bardziej zrównoważonej AI: UNESCO wzywa do zmniejszenia zużycia energii przez LLM

W kierunku bardziej zrównoważonej AI: UNESCO wzywa do zmniejszenia zużycia energii przez LLM

W skrócie : Badanie UNESCO i UCL pokazuje, że dostosowania w projektowaniu modeli językowych mogą zmniejszyć zużycie energii o 90%, bez wpływu na wydajność, co podkreśla potrzebę przemyślenia sposobu ich użytkowania.

Podczas gdy Szczyt AI for Good otworzył wczoraj swoje drzwi w Genewie, wspólne badanie UNESCO i University College London (UCL) ujawnia, że proste dostosowania w projektowaniu i użytkowaniu modeli językowych mogą zmniejszyć ich zużycie energii o 90%, bez wpływu na ich wydajność. W kontekście, w którym ślad ekologiczny AI staje się strategicznym wyzwaniem, to odkrycie skłania do przemyślenia sposobu, w jaki LLM są trenowane, wdrażane i wykorzystywane na całym świecie.

Niewidoczne, ale wykładnicze zużycie

Każde zapytanie skierowane do generatywnej AI, takiej jak ChatGPT, zużywa średnio 0,34 watogodziny. Liczba ta wydaje się nieistotna, dopóki nie pomnoży się jej przez masowe użytkowanie tych narzędzi. Obecnie korzysta z nich ponad miliard osób: jedno codzienne interakcje każdej z nich z jednym z tych narzędzi odpowiada rocznemu zużyciu ponad 310 gigawatogodzin, co jest równoważne z ilością energii elektrycznej zużywanej rocznie przez około 3 miliony mieszkańców kraju afrykańskiego o niskich dochodach.
Tymczasem jedynie 5% afrykańskich ekspertów AI ma dostęp do niezbędnej infrastruktury, co jest rażącą nierównowagą pogłębiającą cyfrową przepaść między krajami o wysokich dochodach, gdzie koncentruje się większość zdolności obliczeniowych.

Trzy dźwignie dla mniej energochłonnej AI

Eksperymenty z kilkoma LLM open source pozwoliły badaczom z UCL zidentyfikować trzy podejścia do minimalizacji śladu węglowego generatywnej AI:
  • Używanie mniejszych i specjalistycznych modeli: Wbrew powszechnemu przekonaniu, że "większy" oznacza "inteligentniejszy", wyniki UCL pokazują, że kompaktowe modele, wyspecjalizowane w określonych zadaniach (streszczenia, tłumaczenia, ekstrakcja informacji) pozwalają dziesięciokrotnie zmniejszyć zużycie energii bez utraty wydajności. Ta logika "specjalizacji" znajduje odzwierciedlenie w architekturach Mixture of Experts (MoE), które aktywują tylko istotne moduły dla każdego zadania, unikając w ten sposób marnotrawstwa zasobów i optymalizując efektywność energetyczną;
  • Skracanie długości interakcji: Krótsze zapytania i odpowiedzi mogą zmniejszyć zużycie energii o ponad 50%, według przeprowadzonych testów;
  • Kompresja modeli: Techniki takie jak kwantyzacja pozwalają zmniejszyć rozmiar modeli bez zauważalnej utraty precyzji, co przekłada się na oszczędności energetyczne rzędu 44%. Te podejścia, znane z badań, pozostają wciąż marginalne w komercyjnych wdrożeniach.
Przyjęta jednogłośnie przez 194 państwa członkowskie w listopadzie 2021 roku "Rekomendacja dotycząca etyki sztucznej inteligencji" UNESCO zawiera rozdział poświęcony wpływom środowiskowym tych technologii. Nowy raport wpisuje się w tę ciągłość, wzywając rządy i przedsiębiorstwa do inwestowania w badania i rozwój bardziej zrównoważonej, etycznej i dostępnej AI, a także w edukację użytkowników, aby byli świadomi konsekwencji energetycznych swoich praktyk cyfrowych.