NVIDIAは、クラウドベースのプラットフォーム「NVIDIA GPU Cloud(NGC)」を発表した。開発者は、自身のPC、NVIDIA DGXシステム、またはクラウド経由で包括的なソフトウェアスイートに便利にアクセスし、AIを利用することが可能になる。
ディープラーニングの活用において、開発者とデータサイエンティストは、以下の2つの課題に直面している。
- ディープラーニングフレームワーク、ライブラリ、オペレーティングシステム、ドライバーなどの必要なソフトウェアコンポーネントを単一のスタックにまとめなければならない。
- ニューラルネットワークをトレーニングするため、最新のGPUコンピューティングリソースへのアクセスが必要となる。
NVIDIAは、今年初めに、NVIDIA DGX-1 AIスーパーコンピューター内の主要なソフトウェア要素をコンテナ化されたパッケージに統合することにより、上記の1つ目の課題を解決した。このパッケージ「NGC Software Stack」は、NGCの一部として、より幅広く提供されるほか、最大のパフォーマンスを得るために引き続き更新および最適化される予定としている。
NGCは、ハードウェアの課題に対処するため、PC (TITAN X または GeForce GTX 1080 Tiを搭載)、DGXシステム、またはクラウドからNGC Software Stackを実行できる柔軟性を開発者に提供するという。
NGCは、開発者がディープラーニングのトレーニング、実験、および展開をより容易に実施できるようにすることで、ディープラーニングの開発作業を容易にし、高速化する。今まで以上に洗練されたニューラルネットワークを簡単に設計できるようになるほか、より多くのデータを処理し、反復作業を迅速化し、製品の市場投入に要する時間を短縮することが可能になるという。
NGCの特長は以下の通り。
- 専用設計:世界最速のGPUでディープラーニングを実行できるよう設計されている。
- 最適化・統合済み:NGC Software Stackは、Caffe、Caffe2、CNTK、MXNet、TensorFlow、Theano、Torchフレームワークなど、幅広いソフトウェアを提供。また、NVIDIA DIGITS GPU トレーニングシステム、NVIDIA Deep Learning SDK (例:cuDNN、NCCL)、nvidia-docker、各種GPUドライバー、NVIDIA CUDAなどにも対応しており、ディープニューラルネットワークを迅速に設計できる。
- 利便性:NGCユーザーは、1つのNVIDIAアカウントで、ディープラーニングワークフローの各プロジェクトを参照できる、シンプルなアプリケーションを利用できる。このアプリケーションは、PC、DGXシステム、NGCなど、あらゆるシステムタイプに対応している。
- 柔軟性:どんな場所でも実行できるよう設計されている。PC上の単一のGPUから開始し、その後、計算リソースをDGXシステムやクラウドからオンデマンドでさらに追加することもできる。データをインポートし、ジョブ構成を設定して、フレームワークを選択した後は、実行するだけ。実行後は、出力をTensorRTに読み込ませて推論を行うこともできる。
NGCでは、柔軟なプラットフォームを利用し、様々なサイズやタイプのモデルも開発できるほか、モデルを試作して展開するまでのプロセスも容易になる。計算リソースの増減も可能で、必要なリソース分だけの支払いで済むという。
提供:NVIDIA
【関連リンク】
・エヌビディア(NVIDIA)
・NVIDIA GPU Cloud(NGC)
無料メルマガ会員に登録しませんか?
IoTに関する様々な情報を取材し、皆様にお届けいたします。