TLDR : UNESCO는 LLM의 에너지 영향을 줄이기 위해 간단한 설계 조정이 가능하다고 밝혔습니다.
목록
제네바에서 AI for Good 정상회담이 어제 개막한 가운데, UNESCO와 University College London(UCL)의 공동 연구는 언어 모델의 설계 및 사용에서 간단한 조정만으로도 성능에 영향을 미치지 않으면서 에너지 소비를 90%까지 줄일 수 있음을 밝혀냈습니다. AI의 환경적 발자국이 전략적 과제가 되는 상황에서, 이 발견은 LLM이 전 세계적으로 훈련, 배포 및 사용되는 방식을 재고할 것을 권장합니다.
보이지 않지만 기하급수적인 소비
ChatGPT와 같은 생성 AI에 대한 각 요청은 평균적으로 0.34와트시를 소비합니다. 이 수치는 겉보기에는 미미해 보일지 모르지만, 이러한 도구의 대량 사용으로 인해 크게 증가합니다. 현재 10억 명 이상의 사람들이 이를 사용하고 있으며, 각 사용자가 하루에 한 번만 이러한 도구와 상호작용하더라도 이는 연간 310기가와트시 이상의 소비에 해당하며, 이는 저소득 아프리카 국가의 약 300만 주민이 매년 소비하는 전기와 맞먹습니다.
그러나 아프리카의 AI 전문가 중 단 5%만이 필요한 인프라에 접근할 수 있으며, 이는 높은 소득의 국가와의 디지털 격차를 벌리고 있으며, 이들 국가에 계산 능력이 집중되어 있습니다.
에너지 소비가 적은 AI를 위한 세 가지 레버
여러 개방형 LLM을 활용한 실험을 통해 UCL의 연구자들은 생성 AI의 탄소 발자국을 최소화하기 위한 세 가지 접근 방식을 식별했습니다:
- 작고 전문화된 모델 사용: "더 크면 더 똑똑하다"는 일반적인 생각과 달리, UCL의 결과는 특정 작업(요약, 번역, 정보 추출)에 전문화된 컴팩트한 모델이 성능 저하 없이 에너지 소비를 10배 줄일 수 있음을 보여줍니다.
이러한 "전문화" 논리는 Mixture of Experts (MoE) 아키텍처에서 볼 수 있으며, 각 작업에 적절한 모듈만 활성화되어 자원의 낭비를 피하고 에너지 효율성을 최적화합니다; - 상호작용 길이 줄이기: 연구에 따르면 더 간결한 프롬프트와 응답은 에너지 소비를 50% 이상 줄일 수 있습니다;
- 모델 압축: 양자화와 같은 기술은 정확도의 눈에 띄는 손실 없이 모델의 크기를 줄일 수 있으며, 44%의 에너지 효율 향상을 제공합니다. 연구에서 알려져 있는 이러한 접근 방식은 여전히 상업적 배포에서는 소수에 불과합니다.
194개 회원국이 만장일치로 채택한 2021년 11월의 UNESCO "인공지능의 윤리에 관한 권고"는 이러한 기술의 환경적 영향을 다루는 장을 포함하고 있습니다. 이 새로운 보고서는 이러한 지속성을 유지하며, 정부와 기업이 더 간소하고 윤리적이며 접근 가능한 AI의 R&D에 투자하고, 사용자들이 자신의 디지털 관행의 에너지적 결과를 인식할 수 있도록 교육에 투자할 것을 촉구합니다.