関係筋によると、Nvidiaは、Samsung Electronicsの第4世代高帯域幅メモリー(HBM3)チップを、中国市場向けに調整された特定のグラフィック・プロセッシング・ユニット(GPU)に統合することを承認した。この動きにより、サムスンのHBM3は、米国の輸出規制を遵守して開発されたNvidiaのH20 GPUで使用できるようになる。
今回の承認は、サムスンのHBM3チップがNvidiaのプロセッサーに初めて採用されることを意味する。しかし、Nvidiaがこれらのチップを他のAIプロセッサーに搭載する計画があるのか、あるいはそのような拡張のために追加テストが必要なのかは、まだ不明である。
サムスンはまた、次世代HBM3Eチップに関するNvidiaの基準を満たすためのプロセスも進めており、以前に報告された熱と消費電力の問題に関する課題に対処するためのテストも進行中だ。
人工知能アプリケーションに不可欠なHBM技術は、メモリチップを垂直に積み重ねてスペースを節約し、エネルギー消費を削減する。ジェネレーティブAIの台頭により、高度なGPUの需要が急増し、NvidiaはHBM供給基盤の多様化を求めている。現在、HBMの主なメーカーはSKハイニックス、マイクロン、サムスンなどだ。
早ければ8月にもサムスンのHBM3が統合される可能性があるH20 GPUは、Nvidiaが中国市場向けに設計した3つのGPUの中で最も先進的なものである。H20は、非中国向けのH100に比べ、意図的に演算能力が制限されている。
今年初めの発売当初は出遅れたものの、H20の売上は大きく伸びたと伝えられている。これは、5月の報道で詳述されたように、ファーウェイの競合チップを下回る当初の価格設定後のことである。
Nvidiaの今回の動きを背景に、大手HBMサプライヤーであるSK Hynixは2022年6月からHBM3チップを供給しており、3月下旬にはNvidiaとみられる非公開の顧客にHBM3Eチップを導入した。マイクロンもまた、HBM3EチップをNvidiaに供給する計画を確認している。
この記事はReutersが寄稿した。この記事は一部自動翻訳機を活用して翻訳されております。詳細は利用規約をご参照ください。