TLDR : Semplici cambiamenti nella progettazione e nell'uso dei LLMs possono ridurre del 90% il loro consumo energetico, secondo un nuovo studio.
Sommario
Mentre il Summit AI for Good ha aperto le sue porte ieri a Ginevra, uno studio congiunto dell'UNESCO e del University College London (UCL) rivela che semplici aggiustamenti nella progettazione e nell'uso dei modelli di linguaggio possono ridurre del 90% il loro consumo energetico, senza compromettere le loro prestazioni. In un contesto in cui l'impronta ambientale dell'IA diventa una questione strategica, questo risultato invita a ripensare il modo in cui i LLMs sono addestrati, distribuiti e utilizzati a livello globale.
Un consumo invisibile, ma esponenziale
Ogni richiesta rivolta a un'IA generativa come ChatGPT consuma in media 0,34 wattora. Un dato apparentemente innocuo, finché non lo si moltiplica per l'uso massiccio di questi strumenti. Oggi, oltre un miliardo di persone li utilizzano: una sola interazione quotidiana di ognuno di essi con uno di questi strumenti corrisponde a un consumo annuo di oltre 310 gigawattora, equivalente all'elettricità consumata ogni anno da circa 3 milioni di abitanti di un paese africano a basso reddito.
Tuttavia, solo il 5% degli esperti di IA africani ha accesso alle infrastrutture necessarie, un divario evidente che accentua la frattura digitale con i paesi ad alto reddito, dove si concentra la maggior parte delle capacità di calcolo.
Tre leve per un'IA meno energivora
Esperimenti con diversi LLMs open source hanno permesso ai ricercatori dell'UCL di identificare tre approcci per minimizzare l'impronta di carbonio dell'IA generativa:
- Utilizzare modelli più piccoli e specializzati: Contrariamente all'idea comune secondo cui "più grande" è sinonimo di "più intelligente", i risultati dell'UCL mostrano che modelli compatti, specializzati su compiti specifici (sintesi, traduzione, estrazione di informazioni) permettono di ridurre di dieci volte il consumo energetico senza perdita di prestazioni.
Questa logica di "specializzazione" si ritrova nelle architetture Mixture of Experts (MoE), che attivano solo i moduli pertinenti per ogni compito, evitando così lo spreco di risorse e ottimizzando l'efficienza energetica; - Ridurre la lunghezza delle interazioni: Prompts e risposte più concise possono consentire una riduzione di oltre il 50% del consumo energetico, secondo i test condotti;
- Comprimere i modelli: Tecniche come la quantizzazione permettono di ridurre la dimensione dei modelli senza perdita significativa di precisione, con un risparmio energetico del 44%. Questi approcci, noti nella ricerca, rimangono ancora marginali nei dispiegamenti commerciali.
Adottata all'unanimità dai 194 Stati membri nel novembre 2021, la "Raccomandazione sull'etica dell'intelligenza artificiale" dell'UNESCO integra un capitolo dedicato agli impatti ambientali di queste tecnologie. Questo nuovo rapporto si inserisce in questa continuità, invitando governi e aziende a investire nella R&D di un'IA più sobria, etica e accessibile, ma anche nell'educazione degli utenti, affinché prendano coscienza delle conseguenze energetiche delle loro pratiche digitali.