ジュネーブで昨日開幕したAI for Goodサミットにおいて、UNESCOとユニバーシティ・カレッジ・ロンドン(UCL)の共同研究が、言語モデルの設計と使用における簡単な調整で、そのエネルギー消費を90%削減できることを明らかにしました。AIの環境負荷が戦略的課題となる中、この発見は、LLMのトレーニング、展開、および使用方法を世界規模で再考するよう促しています。

見えないが指数関数的な消費

ChatGPTのような生成AIへの各リクエストは平均0.34ワット時を消費します。一見すると些細な数字ですが、これをこれらのツールの大量利用と掛け合わせると問題が浮き彫りになります。現在、10億人以上がこれらを利用しており、各ユーザーが毎日一度だけこれらのツールとインタラクションするだけで、年間310ギガワット時以上の消費に相当し、これは低所得のアフリカ諸国の300万人の年間電力消費に匹敵します。
しかし、アフリカのAI専門家のうち必要なインフラにアクセスできるのはわずか5%であり、計算能力の大部分が集中する高所得国とのデジタル格差を広げています。

エネルギー効率の高いAIへの三つの手段

オープンソースのLLMを用いた実験により、UCLの研究者は生成AIの炭素フットプリントを最小化するための三つのアプローチを特定しました:
  • より小さく専門的なモデルを使用する:"大きい"が"賢い"と必ずしも同義ではないという既成概念に反し、UCLの結果は、特定のタスクに特化したコンパクトなモデル(要約、翻訳、情報抽出)が性能を損なうことなくエネルギー消費を十分の一にすることを示しています。
    この「専門化」の論理は、タスクごとに関連するモジュールのみを活性化し、資源の無駄を避けエネルギー効率を最適化するMixture of Experts(MoE)アーキテクチャに見られます;
  • インタラクションの長さを短縮する:テストによれば、プロンプトと応答をより簡潔にすることで、エネルギー消費を50%以上削減することが可能です;
  • モデルを圧縮する:量子化などの技術を利用して、精度をほとんど損なうことなくモデルのサイズを縮小し、44%のエネルギー効率の向上を実現します。これらのアプローチは研究で知られていますが、商業的展開ではまだ限られています。
194の加盟国によって2021年11月に全会一致で採択されたUNESCOの「人工知能の倫理に関する勧告」には、これらの技術の環境への影響に特化した章が含まれています。この新しい報告書はこの流れの中に位置し、政府や企業に対し、より持続可能で倫理的でアクセスしやすいAIの研究開発への投資、およびデジタル慣行のエネルギー的影響を認識するよう利用者の教育を呼びかけています。