現在の人工知能(AI)ブームが膨大なエネルギーを消費していることは周知の事実だ。今では、その量がどれほどかの見当がついている。
ハーバード・T・H・チャン公衆衛生大学院の研究チームが、米国で稼動している2132のデータセンター(国内の全施設の78%)を調査した新しい査読前論文が発表された。サーバーでほぼ埋め尽くされているこれらの施設では、AIモデルの訓練が実施されており、「チャットGPT(ChatGPT)」のようなモデルに私たちがリクエストを送信するたびに処理されている。データーセンターでは、サーバーに電力を供給するにも、サーバーを冷却するにも、膨大なエネルギーを必要とする。
2018年以降、米国のデータセンターによる二酸化炭素排出量は3倍に増加している。2024年8月までの12カ月間、データセンターが排出した二酸化炭素の量は1億500万トンに上り、米国での排出量の2.18%を占めていた(比較のために挙げると、米国の民間航空会社の排出量は約1億3100万トンだ)。米国で使用される全エネルギーの約4.59%がデータセンターに使われており、この数字は2018年から倍増している。
特に2022年11月にチャットGPTが発表されて以来ブームとなっているAIが、この急増にどの程度関与しているかを数字で示すのは難しい。データセンターでは一般的に、AIモデルの訓練や処理作業に加え、Webサイトのホスティングから写真のクラウド保存まで、あらゆる種類のデータが処理されているからだ。だが、この研究チームによれば、ほぼすべての産業分野がAI技術を採用しようとしている中、AIが占める割合は確実かつ急速に拡大しているという。
「これは、かなり急な増え方です」。シンクタンクであるエネルギー・イノベーション(Energy Innovation)のシニアフェロー、エリック・ギモンは言う(同氏は今回の研究には関与していない)。 …