1クエリあたり約0.3WhがAltman公式見解に基づく推定値である
メリット
- ChatGPT1クエリあたりの電気代は約0.007円(約0.3Wh)と極めて安く、個人ユーザーが気にすべきコストではない
- MicrosoftのMaia 100やGoogleのTPU v5など次世代AIチップは電力効率をH100比2〜3倍に改善しており、AI推論コストの低減が続いている
- 量子化・蒸留などソフトウェア最適化によって同じ性能を10分の1の電力で実現する研究が進んでおり、長期的な電力消費の抑制が期待できる
デメリット・注意点
- OpenAIのインフラ全体で年間310GWhを消費しており、日本の一般家庭約7.3万世帯分に相当する大規模な電力消費がChatGPTの裏側で発生している
- NVIDIA H100 GPUは1基700Wを消費し、OpenAIが運用する約30,000基では稼働率70%で年間約129GWhに達するため、AIの普及が電力インフラに与える負荷は無視できない
- 世界のデータセンター電力需要は2024年の57GWから2027年には89GWへ急増し、増加分の約60%がAIによるものでアイルランドでは新規建設の一時凍結措置が取られた
| AIモデル・サービス | 入力規模の目安 | 推論1回あたり電力消費(Wh) | CO2換算(g) | コスト(円) |
|---|---|---|---|---|
| ChatGPT(GPT-3.5相当) | 通常の質問1件 | 約0.3Wh | 約0.13g | 約0.007円 |
| ChatGPT(GPT-4相当) | 通常の質問1件 | 約3〜10Wh | 約1.3〜4.3g | 約0.07〜0.24円 |
| Google検索 | キーワード1回検索 | 約0.3Wh | 約0.13g | 約0.007円 |
| 画像生成AI(DALL-E等) | 画像1枚生成 | 約2〜5Wh | 約0.86〜2.2g | 約0.05〜0.12円 |
| GPT-4のトレーニング(1回) | 全モデル学習 | 約5,000万〜1億kWh | 約2,150〜4,300万kg | 試算困難(数十億円規模) |
※電気代単価は日本平均30.3円/kWh、CO2排出係数は0.43kg-CO2/kWh(日本平均)で試算。SemiAnalysis(2024年)等の推計値に基づく。
ChatGPT1回の質問に必要な電力は約0.3Whです。この数値はOpenAI CEOのSam Altmanが2024年1月のダボス会議で「AIの電力消費は人々が思っているよりはるかに大きい」と発言した際に、The New Yorker誌が報じた推定値に基づく。
0.3Whを金額に換算します。米国の平均電力単価は約16.6セント/kWh(EIA, 2024年)です。
- 0.3Wh ÷ 1000 × 16.6セント = 0.00498セント(約0.005セント)
- 日本円換算(1ドル=150円):約0.007円
1回あたりの電気代は0.007円と極めて小さいです。しかしChatGPTの月間アクティブユーザーは2024年時点で約1.8億人(OpenAI公式発表)であり、1人あたり1日10クエリと仮定すると、1日の総消費電力量は以下のとおりです。
- 1.8億人 × 10クエリ × 0.3Wh = 5.4億Wh = 540MWh/日
- 年間:540MWh × 365日 = 約197GWh
IEA(国際エネルギー機関)の2024年報告書「Electricity 2024」では、OpenAIのインフラ全体の年間消費電力を約310GWhと推定しています。上記の計算値197GWhにトレーニングやバッチ処理の電力を加えると、この数字と概ね整合します。
Google検索1回の消費電力は約0.3Wh(Google環境報告書2024)とされており、ChatGPT1クエリとほぼ同等です。ただしGPT-4のような大規模モデルでは1クエリあたり3〜10Whに達するとの試算もある(SemiAnalysis, 2024年)。モデルの規模が電力消費を大きく左右します。
- ChatGPT1クエリの電力消費は約0.3Wh(Sam Altman公式見解に基づく推定値)
- OpenAIインフラの年間消費電力は310GWhで日本の約7.3万世帯分に相当する
- NVIDIA H100 GPU1基の消費電力は700Wで30,000基の運用で14.7MWに達する
年間310GWhは米国約29,000世帯分の電力消費に相当する
OpenAIのインフラが消費する年間310GWhという数字は、米国の一般家庭約29,000世帯の年間消費電力に相当します。EIA(米国エネルギー情報局)によると、米国の1世帯あたり年間電力消費量は約10,632kWh(2023年)です。
- 310GWh ÷ 10.632MWh = 約29,160世帯
日本の家庭に換算すると、さらに多くの世帯数に相当します。環境省の統計によると、日本の1世帯あたり年間電力消費量は約4,258kWh(2022年度)です。
- 310GWh ÷ 4.258MWh = 約72,800世帯
つまりChatGPTのインフラだけで、日本の約7.3万世帯分の電力を消費している計算になります。一人暮らしの電気代平均が月4,000〜5,000円の家庭が7.3万世帯集まった規模です。
ただしこの電力消費はOpenAI単体の数字です。Microsoft、Google、Metaなど主要AI企業すべてを合算すると、2024年のAI関連電力消費は推定で年間約85TWhに達する(Bloomberg NEF推計)。日本全体の年間電力消費量約900TWhの約9.4%に相当する規模です。
NVIDIA H100 GPUは1基700Wを消費する
ChatGPTの推論処理を支えるのはNVIDIAのGPUです。現在の主力であるH100の消費電力は1基あたり最大700W(NVIDIA公式スペック)。これはデスクトップPC1台分を大きく超えます。
ChatGPTのインフラ構成を推定します。SemiAnalysisの2024年分析によると、OpenAIは約30,000基のH100(およびA100)を運用しているとされます。
- 30,000基 × 700W = 21MW(最大負荷時)
- 稼働率70%として:21MW × 0.7 = 14.7MW
- 年間消費電力:14.7MW × 8,760時間 = 128,772MWh = 約129GWh
129GWhはGPU単体の消費電力です。データセンターにはCPUサーバー、ストレージ、ネットワーク機器、冷却設備が加わる。PUE(電力使用効率)を1.2とすると、施設全体の消費電力は約155GWhとなります。残りの155GWhはトレーニング用GPUクラスターやその他のサービスに使われていると考えられます。
次世代のH200やB100はさらに高性能だが、消費電力も1,000W級に達します。有機ELディスプレイの省エネ性能など民生機器が省電力化を進める一方で、AI用半導体は逆方向に進んでいます。
データセンター電力需要は2024年57GWから2027年89GWへ急増する
| 国・企業 | データセンター電力消費(TWh/年) | 日本の家庭換算(世帯) | 再エネ比率(目標含む) |
|---|---|---|---|
| 米国(全体) | 約200〜250TWh(2024年推計) | 約4,700〜5,900万世帯 | 約40%(グリーン調達含む) |
| アイルランド | 国内消費の約21%(EirGrid) | 国内消費比で算出 | 約35〜45%(風力中心) |
| Google(全世界) | 約24TWh(2023年、環境報告書) | 約563万世帯 | 100%(再エネ購入・証書) |
| Microsoft(全世界) | 約20TWh(2023年推計) | 約470万世帯 | 100%目標(2025年まで) |
| OpenAI(推定) | 約0.31TWh(IEA 2024年推計) | 約7.3万世帯 | 不明(Microsoftインフラ利用) |
| 日本(全体) | 約5〜8TWh(2024年推計) | 約117〜188万世帯 | 約20〜30% |
AI需要の急増により、世界のデータセンター電力需要は急激に拡大しています。IEAの「Electricity 2024」報告書によると、2024年のデータセンター電力需要は約57GW。2027年には89GWに達する見通しです。
増加分の32GW(約56%増)の大半はAIワークロードによるものです。Goldman Sachsの2024年レポートでは、AI関連がデータセンター電力需要増加の約60%を占めると分析しています。
この電力需要増加は各国のエネルギー政策に影響を及ぼしています。
- 米国:バージニア州でデータセンター向け送電容量が不足し、新規建設に2〜3年の待ち時間が発生している(PJM Interconnection, 2024年)
- アイルランド:データセンターが国内電力消費の約21%を占め、新規建設の一時凍結措置が取られた(EirGrid, 2024年)
- 日本:経済産業省が2024年に「次世代データセンター整備戦略」を策定し、北海道・九州への分散立地を推進している
AI推論の電力コストを削減する技術開発も進む。Microsoftは2024年にAIチップ「Maia 100」を発表し、H100比で推論効率を3倍に向上させると発表しました。Googleの自社TPU v5もH100と比較して電力効率で2倍以上の性能を示す。
LED照明の効率限界と同様に、半導体の物理的限界が電力効率の上限を決めます。ただしソフトウェアレベルの最適化(量子化、蒸留、スパースモデル)により、同じ性能を10分の1の電力で実現する研究も進んでいます。AIの電力問題は技術革新とインフラ整備の両面から対処が求められる課題です。
-
1
推論コストとトレーニングコストを区別して理解する
1回の質問(推論)は0.3Whと小さいですが、GPT-4のようなモデルの学習(トレーニング)には数百万kWhが必要です。日常的に払うコストは推論コストですが、環境負荷の大部分はトレーニングにあります。
-
2
データセンターの電力需要拡大を把握する
世界のデータセンター電力需要は2024年の57GWから2027年には89GWへ増加予測です。増加分の約60%がAIによるもので、電力インフラ整備が世界的課題になっています。
-
3
効率改善技術の動向を追う
Microsoftの「Maia 100」やGoogleの「TPU v5」はH100と比べて電力効率を2〜3倍改善しています。量子化・蒸留などソフトウェア最適化でさらに10分の1の電力で同性能を実現する研究も進んでいます。
出典:IEA「Electricity 2024」、EIA「Annual Energy Outlook 2024」、NVIDIA H100公式仕様書、SemiAnalysis「The AI Brick Wall」(2024年)、Google環境報告書2024、Goldman Sachs「AI, Data Centers and the Coming US Power Demand Surge」(2024年)、OpenAI公式発表
あわせて読みたい
LED照明の効率限界は200lm/Wで到達?次世代照明の省エネ性能
あわせて読みたい
一人暮らしの電気代平均は月何円?1K・1DK・1LDK別の相場
あわせて読みたい
ライフライン復旧は何週間?電気・ガス・水道の復旧順序
