AIというとまずは「学習」ですが、学習処理は推論モデルを完成させるまでに行う処理ですから、長い目で見るとそれに必要な消費電力は薄まり、さほど深刻ではありません。
問題は推論のほうです。私のようなAIフリークは世界中で加速度的に増えていると思いますが、一つのクエリーに対してどれほどのエネルギーを使って回答を導いているかは、末端のPC越しでは全く想像できません。今回のブログでは、AI処理が一体どれくらいのエネルギーを消費するかについて考察してみました。
生成AIは、トークンと呼ばれる各AIシステム独自のルールに基づいて定義された文字の断片を単位にして文章を生成していきます。chatGPTでは、生成された文章が次の入力となり、次々と回帰的に文章を生成していくそうです。生成AIの消費電力はトークン単位で考えることが一般的です。
ChatGPTのトークン当たりの消費エネルギーを調べてみましょう。ChatGPT本人に質問してみたところ、適用されるGPUの性能によっても変わりますが、大略4~7Ws/トークンだとの回答がありました。本人に直接聞きましたので、まあ信じてよいでしょう(笑)。Wは消費電力の単位であるワット、sは秒を表します。1Ws(=1ジュール、1J)とは、消費電力1Wで行われる処理を1秒間行った場合に消費されるエネルギーを表します。高性能なGPUを使うほどトークンの生成にかかる時間を短くできるようですが、消費エネルギーは大きくなるようです。
もう少しイメージを明確にするため、具体的な例に対して、どれくらいのエネルギーが消費されるかを算出してみましょう。例として以下の質問をchatGPTに与えてみました。
「今後の日本経済の見通しを教えてください」
chatGPTの答えは次の通りでした。
「日本経済は、今後も緩やかな成長を続けると予想されています。日本銀行の「経済・物価情勢の展望」(2024年7月)によれば、海外経済の緩やかな成長や金融環境の後押しを背景に、潜在成長率を上回る成長が続くとされています。
日本銀行 (外部サイト)
物価面では、消費者物価指数(CPI)の前年比上昇率は、2024年度に2%台半ばとなった後、2025年度以降は概ね2%程度で推移すると見込まれています。これは、賃金上昇や企業の価格設定行動の変化が影響していると考えられます。
日本銀行 (外部サイト)
一方で、海外経済の動向や資源価格の変動、企業の賃金・価格設定行動など、日本経済を取り巻く不確実性は依然として高い状況です。特に、米国の金融政策や地政学的リスクなどが影響を及ぼす可能性があります。
MRI株式会社 (外部サイト)
政府の経済見通しでは、2024年度の実質GDP成長率を1.3%程度、名目GDP成長率を3.0%程度と予測しています。また、消費者物価指数(総合)の上昇率は2.5%程度と見込まれています。
財務省 (外部サイト)
総じて、日本経済は緩やかな成長を続ける見通しですが、外部環境の変化や国内の構造的課題に対する対応が重要となります。」
AI処理の大半を占めるのは、AIへの質問をトークンに分解する処理ではなく、回答となるトークンの列を生成する処理です。そこで、上記回答のトークン数から、この回答を生成する際に消費されたエネルギーを試算してみます。
公開されているツールを使って上記の生成された文章のトークン数を調べたところ841トークンでした。また、質問をしてから回答を得るまでに要した時間は、手元のストップウォッチで簡易に計測したところ約8sでした。
1トークンを生成するために5Wsのエネルギーを消費するものとすると、841トークンを生成するために使ったエネルギーは、
5 [Ws/token] x 841 [tokens] = 4205 [Ws]
となります。このエネルギーは500Wの電子レンジ(消費電力は1000W)を4秒ちょっと動作させた場合に消費されるエネルギーに相当します。また、結果を得るまでにおよそ8sを要しましたので、私が与えた質問の答えを得るまでにOpenAI社のGPUサーバー群は平均して、
4205 [Ws] / 8 [s] = 526 [W]
の電力を消費したことになります。つまり、平均526Wの電力を消費しながら、約8sかけて上記の回答を生成したことになります。なお、1トークンあたりの生成時間は、
8 [s] / 841 [tokens] = 9.5 [ms/token]
でした。
次にマクロな視点で、AIの普及によって、どれくらいの電力需要が生じるかを考えてみます。上記の例のような質問が、Google検索並みの頻度で、ある大規模AIシステム(以下ではAI-Xと呼ぶことにします)へ投げかけられたとします。2024年現在、Googleの検索クエリー回数は1s当たり99,000回だそうです[1]。そこで、AI-Xは1s当たり99,000回のクエリーを受けるものとします。また、ひとつのクエリーをきっかけとする対話ターン数(1セッションでAIとやり取りする回数)の平均を15回とします[2]。この場合にAI-Xが必要とする電力は、
526[W] * 99,000[queries/s] * 8 [s/query] * 15 [turns/query] = 6.25 [GW] = 625万kW
となります。原子力発電1基の平均出力は100万kWと言われていますから、原発6基分の電力が必要となる計算になります。なかなかのパワーハングリーなAIですね・・・。消費電力625万kWを年間の消費エネルギーに換算すると、
6.25 [GW] * 365 [days] * 24 [H] =54.8 [TWH]
となります。2022年の全世界のデータセンターで消費されたエネルギーはおおよそ 460TWHだったそうです[3]。54.8TWHはその12%にも相当します。
なお、本試算はユーザからのクエリーが定期的に規則正しく発生した場合を想定したものであり、実際には確率的にクエリーは発生し、ときに集中してクエリーが発生する場合があることに注意が必要です。このような状態のときは、その期間、より大きな消費電力が発生します。トークンをより高速に生成するため、より高性能なGPUの適用が進むことでも消費電力は増大します。GPUの高性能化や推論サーバの分散化が進行すると、対話スループットが向上します。スループットの向上は、1回の対話セッションにおけるターン数の増大を引き起こす可能性が高く、やはり消費エネルギーは増えます。さらに言語系のタスクのみならず、画像生成や動画生成といったマルチモーダルなタスクも増加していくでしょう。これらを勘案すると、やはりAIの消費電力問題は今後大きな議論を巻き起こすテーマであると言えるでしょう。
参考文献
[1] https://www.demandsage.com/google-search-statistics/(外部サイト)
[2] https://note.com/hirokinakamura/n/na04b2a27d8d5(外部サイト)
[3] https://eetimes.itmedia.co.jp/ee/articles/2407/04/news085.html(外部サイト)
著者
PicoCELA株式会社
代表取締役社長 古川 浩
NEC、九州大学教授を経て現職。九大在職中にPicoCELAを創業。
一貫して無線通信システムの研究開発ならびに事業化に従事。工学博士。