Investing.com — クアルコム(NASDAQ:QCOM)は月曜日、Nvidiaの人工知能チップと連携するよう設計されたカスタムデータセンターCPUを開発すると発表した。これはサーバープロセッサ市場への再参入を示すものである。
Nvidia(NASDAQ:NVDA)はAIアクセラレータ分野で支配的地位を占めているが、同社のチップはCPU—従来はインテル(NASDAQ:INTC)とアドバンスト・マイクロ・デバイセズ(NASDAQ:AMD)が供給—を必要とする。Nvidiaも「Grace」というArm基盤のチップでCPU市場に参入している。
Now、クアルコムはこの競争に再参入し、Nvidia技術を活用して自社CPUとNvidia GPU間の通信を改善する。
「当社のカスタムプロセッサをNvidiaのラックスケールアーキテクチャに接続する能力により、高性能かつエネルギー効率の良いコンピューティングをデータセンターにもたらすという共通のビジョンを推進している」とクアルコムのCEOクリスティアーノ・アモン氏は月曜日に述べた。
クアルコムは2010年代にArm基盤のサーバーチップを追求し、Meta Platforms(NASDAQ:META)でテストしたが、法的圧力とコスト削減の中でその取り組みを縮小した。この構想は、クアルコムが2021年に元アップル(NASDAQ:AAPL)チップエンジニアのチームを買収したことで復活した。
それ以来、同社はMetaとの協議を再開し、サウジアラビアのAI企業HumainとカスタムデータセンターCPUの共同開発に関する基本合意書に署名した。
クアルコムのデータセンターCPU進出は、2021年のNuvia買収により勢いを増した。Nuviaは、Arm基盤のプロセッサ設計を開発する企業であり、クアルコムの刷新されたサーバーチップ構想において中心的役割を果たしている。
データセンターCPU分野は激しい競争が繰り広げられており、Amazon(NASDAQ:AMZN)やマイクロソフト(NASDAQ:MSFT)などの主要クラウドプロバイダーは、アドバンスト・マイクロ・デバイセズやインテルといった確立された業界大手と並んで、独自に構築したプロセッサをすでに展開している。
クアルコムのこの分野への拡大は、同社が長年プロセッサとモデムで支配的地位を占めてきたスマートフォンへの依存度を減らす広範な取り組みの一環である。
同社は、自社チップをエネルギー効率が良く、AIワークロードをクラウドにオフロードするのではなく、デバイス上で直接実行できるものとして宣伝している。このオンデバイスアプローチにより、AIパフォーマンスの高速化とプライバシーの向上が可能になる可能性がある。機密データがハードウェアのローカルに保持されるためである。
この記事は一部自動翻訳機を活用して翻訳されております。詳細は利用規約をご参照ください。