NVIDIAは、AIカンファレンス「NVIDIA GTC」の基調講演にて、新たなGPUプラットフォーム「NVIDIA Blackwell Ultra」を発表した。
「NVIDIA Blackwell Ultra」は、1年前に発表された「Blackwell」を基に構築されており、AI計算用のハードウェアシステム「NVIDIA GB300 NVL72」と、AIや高性能計算向けのコンピュータシステム「NVIDIA HGX B300 NVL16」が含まれている。
「GB300 NVL72」は、ラックスケールデザインで72基の「Blackwell Ultra GPU」と、36基のArm Neoverseベースの「NVIDIA Grace CPU」を接続する。
「GB300 NVL72」は、旧世代の「GB200 NVL72」と比較して1.5倍のAI パフォーマンスで、2022年に発表されたGPUアーキテクチャ「NVIDIA Hopper」で構築されたAIファクトリーと比較して、Blackwellの収益機会を50倍に増加させるとしている。
なお、「GB300 NVL72」は、クラウドベースのAIスーパーコンピューターサービス「NVIDIA DGX Cloud」でも利用可能になる予定だ。
一方「NVIDIA HGX B300 NVL16」は、Hopper世代と比較して、大規模言語モデルでの推論が11倍高速で、7倍の計算能力、4倍のメモリを搭載している。
NVIDIAの創業者兼CEOであるジェンスンフアン氏は、「リーズニングとエージェント型AIには、桁違いの高いコンピューティングパフォーマンスが必要となる。NVIDIAは、この瞬間を想定してBlackwell Ultraを設計した。これは、事前トレーニング、事後トレーニング、リーズニングAI推論の処理を簡単かつ効率的に実行可能で、汎用性のあるプラットフォームだ。」と述べている。
今後、「Blackwell Ultra」をベースとした製品は、今年後半より主要なコンピュータメーカとクラウドサービスプロバイダから順次利用可能になる予定だ。
現時点で「Blackwell Ultra」搭載の仮想マシンを提供する予定のクラウドサービスプロバイダは、Amazon Web Services、Google Cloud、 Microsoft Azure, Oracle Cloud Infrastructureだ。加えて、GPUクラウドプロバイダのCoreWeave、Crusoe、Lambda、Nebius、Nscale、Yotta、YTLが挙げられている。
無料メルマガ会員に登録しませんか?

IoTに関する様々な情報を取材し、皆様にお届けいたします。