Enquanto a Cúpula AI for Good abriu suas portas ontem em Genebra, um estudo conjunto da UNESCO e da University College London (UCL) revela que simples ajustes na concepção e uso dos modelos de linguagem podem reduzir em 90% o consumo de energia, sem afetar sua performance. Em um contexto onde a pegada ambiental da IA se torna uma questão estratégica, essa constatação convida a repensar a maneira como os LLMs são treinados, implantados e utilizados em escala global.
Um consumo invisível, mas exponencial
Cada solicitação feita a uma IA generativa como o ChatGPT consome em média 0,34 watt-hora. Um número aparentemente trivial, até que se multiplica pelo uso massivo dessas ferramentas. Hoje, mais de um bilhão de pessoas as utilizam: uma única interação diária de cada uma delas com uma dessas ferramentas corresponde a um consumo anual de mais de 310 gigawatt-horas, o equivalente à eletricidade consumida anualmente por cerca de 3 milhões de habitantes de um país africano de baixa renda.
No entanto, apenas 5% dos especialistas em IA africanos têm acesso às infraestruturas necessárias, um desequilíbrio gritante que aprofunda a divisão digital com os países de alta renda, onde se concentra a maior parte das capacidades de computação.
Três alavancas para uma IA menos energética
Experiências com vários LLMs de código aberto permitiram aos pesquisadores da UCL identificar três abordagens para minimizar a pegada de carbono da IA generativa:
- Utilizar modelos menores e especializados : Ao contrário da ideia recebida de que "maior" rima com "mais inteligente", os resultados da UCL mostram que modelos compactos, especializados em tarefas específicas (resumo, tradução, extração de informações) permitem dividir por dez o consumo energético sem perda de desempenho. Essa lógica de "especialização" é encontrada nas arquiteturas Mixture of Experts (MoE), que ativam apenas os módulos relevantes para cada tarefa, evitando assim o desperdício de recursos e otimizando a eficiência energética;
- Reduzir o comprimento das interações : Prompts e respostas mais concisos podem permitir uma redução de mais de 50% do consumo energético, segundo os testes realizados;
- Comprimir os modelos : Técnicas como a quantificação permitem reduzir o tamanho dos modelos sem perda notável de precisão, com ganhos energéticos da ordem de 44%. Essas abordagens, conhecidas na pesquisa, ainda são marginais nas implantações comerciais.
Aprovada por unanimidade pelos 194 Estados membros em novembro de 2021, a "Recomendação sobre a ética da inteligência artificial " da UNESCO integra um capítulo dedicado aos impactos ambientais dessas tecnologias. Este novo relatório se insere nesta continuidade, chamando governos e empresas a investir em P&D para uma IA mais econômica, ética e acessível, mas também na educação dos usuários, para que tomem consciência das consequências energéticas de suas práticas digitais.