Samsung Electronicsが、Nvidiaが実施した資格試験に合格した後、8-層High Bandwidth Memory 3(HBM3)チップの大規模生産を開始した旨。
この進展により、サムスンがエヌビディア(NVDA)に提供することを熱望している高度なHBM3Eチップが、必要な品質基準を満たす可能性が高まった。
HBMチップは、その優れたメモリ帯域幅と効率性から、現在の人工知能(AI)の躍進においてますます重要性を増している。これらの特性は、AI操作におけるデータ処理の迅速化とパフォーマンスの向上に寄与する。
これらのチップは、膨大なデータセットへの迅速なアクセスを可能にし、遅延を最小限に抑えることで、機械学習やニューラルネットワークのトレーニングなど、AIタスクの高度な処理要件に不可欠である。
この報道が正確であれば、サムスンにとって大きな前進を意味する。ロイターは今年初め、サムスンのHBMチップは過熱と過度の電力使用で問題を起こし、その結果、米エヌビディアのAIプロセッサーへの統合基準を満たすことができなかったと公表した。
これまで、サムスンの地元ライバルであるSKハイニックスは、2022年6月からNvidiaにHBM3チップを供給しており、3月末にはHBM3Eチップの納入を非公開の顧客に開始しており、情報筋はこれがNvidiaであることを確認している。
一方、同じく著名なHBMメーカーであるマイクロン(MU)も、同様にHBM3EチップをNvidiaに供給する意向を表明している。
Nvidiaの品質ベンチマークを達成することは、NvidiaがAI用途の世界GPU市場で約80%のシェアを占めていることを考えると、HBM製造業者にとって極めて重要である。これらのベンチマークを満たすことに成功することは、高い評価を維持するだけでなく、利益の増加を促進するためにも重要である。
本記事は、AIの支援を受けて制作・翻訳され、編集者による検証を受けています。その他の詳細については、当社の利用規約を参照してください。