Amazon Web Services (AWS)は、独自の人工知能(AI)チップを搭載した新しいデータセンターサーバーの導入を発表し、この分野におけるNvidiaの優位性に挑戦しています。アップルが顧客として確認され、これらの新しいTrainium2チップを利用する計画です。AWSのクラウド部門は、これらのサーバーが数十万個のチップを組み込んだ巨大なスーパーコンピューターの一部となることを火曜日に明らかにしました。
AWSのTrainium2チップを搭載したこのスーパーコンピューターは、AIスタートアップのAnthropicによって最初に使用されます。Anthropicは信頼性が高く解釈可能なAIシステムの作成で知られており、この計算能力を活用してAIモデルの能力を向上させる予定です。
アップルの幹部であるBenoit Dupinも、同社がTrainium2チップを採用していることを認め、AWSの新製品の重要な採用を示しています。
AWSのChief ExecutiveであるMatt Garmanは、同社がすでにAIチップの次世代版であるTrainium3の開発に取り組んでおり、来年デビューする予定であることも明らかにしました。
AWS Trainium2を搭載した新しいAmazon Elastic Compute Cloud(Amazon EC2)インスタンスが一般提供され、Trn2 UltraServersが導入されました。これらのUltraServersは、大規模言語モデル(LLM)や基盤モデル(FM)を含む現代のAIモデルのトレーニングと展開において、優れたパフォーマンスとコスト効率を提供するように設計されています。
Trn2インスタンスは、現在のGPUベースのEC2インスタンスと比較して30-40%のコストパフォーマンス向上を約束し、16個のTrainium2チップを搭載して20.8ピークペタフロップスの計算能力を提供します。これにより、数十億のパラメーターを持つAIワークロードの処理に最適です。
さらに要求の厳しいAIタスクのために、Trn2 UltraServersは新しいEC2サービスを提供し、64個の相互接続されたTrainium2チップで最大83.2ピークペタフロップスの計算能力を実現します。このセットアップは単一インスタンスの計算、メモリ、ネットワーク能力を4倍にし、世界最大のAIモデルのトレーニングと展開を可能にします。
AWSとAnthropicの共同プロジェクトであるProject Rainierは、Trn2 UltraServersのEC2 UltraClusterを構築することを目的としており、完成すれば世界最大のAI計算クラスターとなります。
AWSはまた、3ナノメートルのプロセスノードで製造される予定の次世代Trainium3チップについても言及し、現在のTrn2 UltraServersのパフォーマンスを4倍にすることを約束しています。
AWS Neuronソフトウェア開発キット(SDK)は、TrainiumチップでAIモデルを実行するための最適化を容易にし、JAXやPyTorchなどの人気のあるフレームワークをサポートし、10万以上のモデルをホストするHugging Faceモデルハブと統合されています。
Trn2インスタンスは現在、米国東部(オハイオ)AWSリージョンで利用可能であり、近日中に他のリージョンにも拡大する予定です。一方、Trn2 UltraServersはプレビューフェーズで提供されています。
この記事は一部自動翻訳機を活用して翻訳されております。詳細は利用規約をご参照ください。