バークレイズのアナリストは、テーマ別投資に関する最近のレポートの中で、人工知能(AI)技術の成長によって予想されるエネルギー消費の増加について、特にエヌビディア(NVDA)の役割に重点を置いて調査した。
アナリストらは、AI開発に必要なエネルギーはエヌビディアの将来の市場パフォーマンスの重要な要素になると予測している。
バークレイズの調査によると、2030年までにデータセンターは、主にAI技術が使用するエネルギーにより、米国における現在の電力供給の9%以上を使用する可能性があるという。アナリストは、「エヌビディアの予測に含まれるAI関連の予想エネルギー消費」が、このエネルギー見積もりに大きく寄与していると強調している。
また、同レポートは、グラフィックス・プロセッシング・ユニット(GPU)の新シリーズが登場するたびにAIの演算効率は向上しているものの、AIモデルの規模や複雑さは急速に拡大していると指摘する。例えば、主要な大規模言語モデル(LLM)に必要なストレージ容量は、毎年約3.5倍に増加している。
このような進歩があっても、AIの応用範囲が広がっているため、総エネルギー消費量は増加すると予想されます。エヌビディアのHopperシリーズやBlackwellシリーズを含むGPUの新シリーズは、いずれもエネルギー効率の向上を実現しています。しかし、より広範で複雑なAIモデルは、多くのコンピューティング・パワーを要求します。
「大規模な言語モデル(LLM)は、即時処理のために大量のコンピューティングパワーを必要とします。「LLMのコンピューティング要件は、これらのモデルの開発、ティーチング、適用に追加のメモリ、アクセラレータ、サーバーが必要となるため、エネルギー使用量の増加にもつながる。
「LLMをインスタント処理に使おうと計画している企業は、これらの問題に立ち向かわなければならない。
このエネルギー需要の大きさを伝えるために、バークレイズ社は、約800万個のGPUを動作させるためには約14.5ギガワットの電力が必要で、これは約110テラワット時(TWh)のエネルギーに相当すると見積もっている。この予測は、85%の平均利用率に基づいています。
2027年末までに、これらのGPUの推定70%が米国で使用されると予測されており、これは、米国だけで今後3年間に10ギガワット以上、75テラワット時以上のAIエネルギーが必要となることを意味する。
「エヌビディアの市場価値は、AIに対する現在のエネルギー需要が始まりに過ぎないことを示している」とアナリストは見ている。エヌビディアのGPUの継続的な改良と実装は、データセンター内のエネルギー使用の大幅な増加につながると予想される。
さらに、データセンターの電力網への依存は、最も高い電力要件を管理する必要性を浮き彫りにしている。データセンターは中断することなく稼動するため、安定した電力供給が必要となる。
この報告書には、ダボス世界経済フォーラムでOpenAIのCEOであるサム・アルトマンが述べた、"我々は間違いなく、以前考えていたよりもはるかに大量のエネルギーを世界で必要としている...我々はまだこの技術に必要なエネルギーを過小評価していると思う "という重要な発言が含まれている。
この記事はAIの協力を得て作成&翻訳し、編集者がチェックしたものです。詳しくは利用規約をご覧ください。