OpenAIのチャットボットプラットフォームであるChatGPTは、かつて考えられていたほど電力を消費しないかもしれない。しかし、新たな研究によると、その電力消費量はChatGPTの使用方法と、クエリに応答するAIモデルに大きく依存する。
非営利のAI研究機関であるEpoch AIによる最近の分析では、典型的なChatGPTクエリが消費する電力を計算しようとしました。よく引用される統計によると、ChatGPTは1つの質問に答えるのに約3ワット時の電力を必要とし、これはGoogle検索の10倍に相当します。
エポック社は、それは過大評価だと考えている。
Epoch は、OpenAI の ChatGPT の最新のデフォルト モデルである GPT-4o を参考にして、平均的な ChatGPT クエリが約 0.3 ワット時を消費することを発見しました。これは多くの家庭用電化製品の消費電力よりも少ないです。
「通常の電化製品の使用や家の冷暖房、車の運転に比べれば、エネルギー消費量はそれほど大きな問題ではありません」と、この分析を行ったエポック社のデータアナリスト、ジョシュア・ユー氏はTechCrunchに語った。
AI企業がインフラの急速な拡大を目指す中、AIのエネルギー消費、そして広く言えばその環境への影響は、激しい議論の的となっています。先週、100を超える団体が公開書簡を発表し、AI業界と規制当局に対し、新たなAIデータセンターが天然資源を枯渇させ、公益事業に再生不可能なエネルギー源への依存を強いることのないよう求める訴えを行いました。
あなたはTechCrunchに対し、彼の分析は時代遅れとされる過去の研究に刺激されたと述べました。例えば、3ワット時という推定値に至った報告書の著者は、OpenAIがモデルを実行するために、より古くて効率の低いチップを使用していると想定していたと指摘しました。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日

「AIが今後数年間で大量のエネルギーを消費するようになることは正しく認識しているものの、現在AIに投入されているエネルギーを正確に説明していない公的な議論を数多く目にしてきました」とユー氏は述べた。「また、同僚の中には、クエリ1回あたり3ワット時という最も広く報告されている推定値がかなり古い研究に基づいており、安易な計算では高すぎると指摘する人もいました。」
確かに、Epoch の 0.3 ワット時という数字も近似値であり、OpenAI は正確な計算を行うために必要な詳細を公表していない。
また、この分析では、画像生成や入力処理といったChatGPT機能によって発生する追加のエネルギーコストは考慮されていません。「長い入力」のChatGPTクエリ(例えば、長いファイルが添付されたクエリ)は、通常の質問よりも初期段階で多くの電力を消費する可能性が高いと認識されています。
ただし、ChatGPT のベースライン電力消費量は増加すると予想しているとおっしゃいました。
「AIはさらに進化し、このAIのトレーニングにはおそらくはるかに多くのエネルギーが必要となり、この将来のAIは、今日の人々がChatGPTを使用する方法よりもはるかに多くのタスク、より複雑なタスクを処理するために、はるかに集中的に使用される可能性があります」とユー氏は述べています。
ここ数ヶ月、AIの効率性において目覚ましい進歩が見られてきましたが、AIの導入規模は、膨大な電力を消費するインフラの拡張を促すことが予想されています。ランド研究所の報告書によると、今後2年間で、AIデータセンターはカリフォルニア州の2022年の電力容量(68GW)のほぼ全てを必要とする可能性があります。また、2030年までに、フロンティアモデルの学習には原子炉8基分(8GW)に相当する電力出力が必要になる可能性があると予測されています。
ChatGPTだけでも膨大な数のユーザーにリーチしており、その数は増加の一途を辿っています。そのため、サーバー需要も同様に膨大です。OpenAIは複数の投資パートナーと共に、今後数年間で新たなAIデータセンタープロジェクトに数十億ドルを投資する計画です。
OpenAIの関心は、他のAI業界と同様に、推論モデルへと移行しつつあります。推論モデルは一般的に、実行可能なタスクの能力は高いものの、実行にはより多くの計算処理を必要とします。GPT-4oのようなモデルはクエリにほぼ瞬時に応答しますが、推論モデルは回答を出す前に数秒から数分間「考える」必要があり、このプロセスによってより多くの計算処理、ひいては電力を消費します。
「推論モデルは、従来のモデルでは実行できないタスクを引き受けるようになり、そのためにさらに多くのデータを生成するようになるため、どちらの場合もより多くのデータセンターが必要になる」とユー氏は述べた。
OpenAIは、o3-miniのような、より電力効率の高い推論モデルのリリースを開始しています。しかし、少なくとも現時点では、効率性の向上が推論モデルの「思考」プロセスによる電力需要の増加や、世界中で増加するAI利用を相殺できる可能性は低いようです。
AI のエネルギーフットプリントを心配している人は、ChatGPT などのアプリをあまり使用しないか、現実的な範囲で必要なコンピューティングを最小限に抑えるモデルを選択することを提案しました。
「[OpenAIの] GPT-4o-miniのようなより小規模なAIモデルの使用を試みることができます」とユー氏は述べ、「大量のデータの処理や生成を必要とする方法で、それらを控えめに使用してください」と語った。
カイル・ウィガーズは2025年6月までTechCrunchのAIエディターを務めていました。VentureBeatやDigital Trendsに加え、Android Police、Android Authority、Droid-Life、XDA-Developersといった様々なガジェットブログにも記事を寄稿しています。音楽療法士のパートナーとマンハッタンに在住。
バイオを見る