Mientras que la Cumbre AI for Good abrió sus puertas ayer en Ginebra, un estudio conjunto de la UNESCO y el University College London (UCL) revela que simples ajustes en el diseño y uso de los modelos de lenguaje pueden reducir en un 90 % su consumo de energía, sin afectar su rendimiento. En un contexto en el que la huella ambiental de la IA se convierte en un desafío estratégico, este hallazgo invita a repensar la manera en que los LLMs son entrenados, desplegados y utilizados a nivel mundial.
Un consumo invisible, pero exponencial
Cada solicitud dirigida a una IA generativa como ChatGPT consume en promedio 0.34 vatios-hora. Una cifra aparentemente insignificante, hasta que se multiplica por el uso masivo de estas herramientas. Hoy, más de mil millones de personas las utilizan: una sola interacción diaria de cada uno de ellos con una de estas herramientas equivale a un consumo anual de más de 310 gigavatios-hora, lo que equivale a la electricidad consumida anualmente por alrededor de 3 millones de habitantes de un país africano de bajos ingresos.
Sin embargo, solo el 5 % de los expertos en IA africanos tienen acceso a las infraestructuras necesarias, un desequilibrio evidente que amplía la brecha digital con los países de altos ingresos, donde se concentra la mayor parte de las capacidades de cálculo.
Tres palancas para una IA menos energéticamente demandante
Experimentos con varios LLMs de código abierto permitieron a los investigadores de la UCL identificar tres enfoques para minimizar la huella de carbono de la IA generativa:
- Utilizar modelos más pequeños y especializados: Contrariamente a la idea recibida de que “más grande” equivale a “más inteligente”, los resultados de la UCL muestran que modelos compactos, especializados en tareas precisas (resumen, traducción, extracción de información) permiten reducir por diez el consumo energético sin pérdida de rendimiento.
Esta lógica de “especialización” se encuentra en las arquitecturas Mixture of Experts (MoE), que activan únicamente los módulos pertinentes para cada tarea, evitando así el desperdicio de recursos y optimizando la eficiencia energética; - Reducir la longitud de las interacciones: Prompts y respuestas más concisos pueden permitir una reducción de más del 50 % del consumo energético, según las pruebas realizadas;
- Comprimir los modelos: Técnicas como la cuantificación permiten reducir el tamaño de los modelos sin pérdida notable de precisión, con ganancias energéticas del orden del 44 %. Estos enfoques, conocidos en la investigación, aún son marginales en los despliegues comerciales.
Aprobada por unanimidad por los 194 Estados miembros en noviembre de 2021, la “Recomendación sobre la ética de la inteligencia artificial” de la UNESCO integra un capítulo dedicado a los impactos ambientales de estas tecnologías. Este nuevo informe se inscribe en esa continuidad, llamando a gobiernos y empresas a invertir en la I+D de una IA más sobria, ética y accesible, pero también en la educación de los usuarios, para que tomen conciencia de las consecuencias energéticas de sus prácticas digitales.