← 2026-04-19
調査・研究 Community 2026-04-19 Source →

AIデータセンターが29.6GW消費、GPT-4o単体で年間120万人分の飲料水を使用——IEAは2022年比で電力倍増を予測

AI研究における環境負荷の深刻さが改めて数字で明らかになりました。MIT Technology Reviewの最新レポートによると、世界のAIデータセンターが消費する電力は現在29.6ギガワットに達しており、OpenAIのGPT-4oを稼働させるだけで年間に120万人分の飲料水相当を冷却に消費しているとされています。国際エネルギー機関(IEA)はデータセンターの電力消費が2022年比で2026年には倍増し1,000テラワット時(TWh)に達すると予測しており、生成AIの普及とエネルギー問題の緊張関係が臨界点に近づいています。

「100ワードのプロンプト1回=水1本分」という統計は、ユーザーが日常的に意識することのない環境コストを端的に示しています。大規模モデルの学習では数百〜数千メガワット時の電力が必要とされており、ChatGPTのような高頻度利用サービスでは冷却用の水需要が特に大きくなります。欧州委員会はこの問題への対策として、データセンターから排出される廃熱を近隣地域の水浄化システムや炭素回収プロセスに活用する案を提案しており、産業廃熱の循環利用という新たな方向性を示しています。

X上ではSam Altman氏が「水懸念はフェイク、人間もエネルギーを使う」とAIサミットで発言したことが大炎上を招きました。環境活動家やジャーナリストから猛反発を受け、「経営者の責任ある発言とは何か」という議論が広がっています。Redditのr/MachineLearningでは「ニューロシンボリックAIでエネルギー消費を100分の1に削減できる研究(ScienceDaily)」が注目を集め、「効率化研究が商業開発より重要」という意見が多数を集めました。Hacker Newsでは、GreenpeaceのレポートをもとにAIのエネルギー消費が民主主義的なリソース配分を歪めているという議論が展開され、地域コミュニティへの負荷を具体的な数字で示した投稿が多くのポイントを獲得しています。

AI産業の成長が環境コストと切り離して語られてきた時代は終わりつつあります。モデルの効率化(MoEアーキテクチャや知識蒸留)・再生可能エネルギーへの移行・廃熱活用という三つの方向での改善が同時に求められており、欧州を中心とした規制強化の動きも加速しています。次世代の「グリーンAI」研究がどこまで実用化できるかが、産業全体の持続可能性を左右するカギになりそうです。

関連リンク