NVIDIAは、より迅速にAIクラウドコンピューティングの需要に応えるため、ODMであるFoxconn、Inventec、Quanta、Wistronとのパートナープログラムを開始した。
NVIDIA HGXパートナープログラムを通じ、NVIDIAは、各ODMにNVIDIA HGXリファレンスアーキテクチャー、NVIDIA GPUコンピューティングテクノロジー、デザインガイドラインの早期アクセスを提供する。HGXは、MicrosoftのProject Olympusの取り組み、FacebookのBig Basin システム、NVIDIA DGX-1TM AI スーパーコンピューターにおいて利用されているのと同じデータセンター向けに設計されている。
HGXをスターター向けの「レシピ」として利用するODMパートナーは、NVIDIAと協力し、ハイパースケールデータセンター向けの条件を満たす、さまざまなGPUアクセラレーテッドシステムをより迅速に設計し、市場化することができるという。NVIDIAのエンジニアは、このプログラムを通じてODMとより緊密に協力し、技術の採用から実動環境への展開までの時間が最短になるよう支援するとしている。
昨年、AIコンピューティングのリソースに対する需要全体が大幅に上昇し、同様に、NVIDIAのGPUコンピューティングプラットフォームも、市場での導入およびパフォーマンスの点で急激な伸びを記録した。現在、世界上位10社のハイパースケール企業のすべてが、それぞれのデータセンターでNVIDIA GPUアクセラレーターを利用しているという。
従来型の3倍のパフォーマンスを提供する新しいNVIDIA Volta アーキテクチャーベースのGPUにより、ODMは、市場の需要に対し、利用可能な NVIDIAの最新テクノロジーに基づき、新しい製品を供給することができるという。
NVIDIAは、ハイパースケール クラウド環境に特有のハイパフォーマンス、効率性、大規模な拡張の要件を満たせるよう、HGXリファレンスデザインを構築した。ワークロードのニーズに基づき高度な設定変更が可能なHGXは、ハイパフォーマンスコンピューティング、ディープラーニングのトレーニング、ディープラーニングの推論向けに、さまざまな方法でGPUとCPUを容易に組み合わせることができる。
標準のHGXデザインアーキテクチャーは、SXM2フォームファクターにNVIDIA Tesla GPUアクセラレーターを8基搭載し、NVIDIA NVLinkTM高速インターコネクトと最適化されたPCIe トポロジーを利用するキューブ メッシュ内で接続している。モジュール設計によるHGXの筐体は、必要に応じてハイパースケールのCPUノードを利用し、世界中の既存のデータ センターにあるラックへの展開に適しているという。
NVIDIA Tesla P100とV100 GPUアクセラレーターはいずれも、HGXと互換性がある。これは、V100 GPUが今年中に提供されれば、すべてのHGX ベースの製品をすぐにアップグレードできるよう考慮しているためだという。
HGXは、新しい NVIDIA GPU Cloud プラットフォームのホスティングを求めるクラウドプロバイダーにとって、理想的なリファレンスアーキテクチャーだとしている。NVIDIA GPU Cloudプラットフォームは、Caffe2、Cognitive Toolkit、MXNet、TensorFlow など、ディープラーニングフレームワークコンテナを完全に統合し、最適化するカタログを管理する。
【関連リンク】
・エヌビディア(NVIDIA)
・フォックスコン(Foxconn/鴻海/富士康)
・クアンタ・コンピュータ(Quanta Computer/広達電脳)
・インベンテック(Inventec)
・ウィストロン(Wistron)
無料メルマガ会員に登録しませんか?
IoTに関する様々な情報を取材し、皆様にお届けいたします。