NVIDIA、デスクトップGPUを活用するAI研究者向けに「NVIDIA GPU Cloud」の提供を開始

NVIDIAは本日、NVIDIA TITANへのNVIDIA GPU Cloud(NGC)のサポート拡張に伴い、デスクトップGPUを利用するAI研究者に対しNGCを提供すると発表した。

また、NVIDIAは、NGCコンテナレジストリに新しいソフトウェアとその他の主要な更新を追加し、NGCの機能を拡張したことも発表した。

NVIDIA Pascalアーキテクチャを採用したTITAN GPUを利用するユーザーは、無料のNGCアカウントにサインアップして、GPUに最適化されたディープラーニングやHPC用の多彩なソフトウェアとツールを利用することができる。

サポート対象のコンピューティングプラットフォームには他にも、NVIDIA DGX-1、DGX Station、Amazon EC2上のNVIDIA Volta対応インスタンスが含まれる。

NGCコンテナレジストリを通じて利用可能なソフトウェアには、TensorFlowとPyTorch、サードパーティによって管理されているHPCアプリケーション、NVIDIAのHPCビジュアライゼーションツール、NVIDIAのプログラマブル推論アクセラレータ、NVIDIA TensorRT 3.0など、NVIDIAの最適化されたディープラーニングフレームワークが含まれる。

GE Healthcareは、NGCを既に採用し、NGCのコンテナレジストリに含まれるディープラーニングソフトウェアを利用して、全世界50万台の同社イメージング装置へのAIの採用を加速させる、患者ケアの向上を目指しているという。

NGCのコンテナレジストリでNVIDIA TensorRTの提供を開始した以外にも、NVIDIAはNGCへの更新について以下の内容を発表した。

  • TensorRTでのOpen Neural Network Exchange(ONNX)のサポート
  • MXNet 1.0の初回リリースの即時サポートと提供開始
  • BaiduのPaddlePaddle AIフレームワークの提供開始

ONNXは、FacebookとMicrosoftによって開発されたオープンフォーマットだ。ONNXを使用すると、開発者は異なるフレームワーク間でモデルを交換できる。

NVIDIAは、TensorRT開発コンテナー内で、ONNXモデルをTensorRT推論エンジンにデプロイするためのコンバーターを作成した。

アプリケーション開発者は、低遅延・高スループットのモデルをTensorRTに、より簡単にデプロイできるようになる。

また、10月に提供が開始されたNGCは、Amazon Web Services上のNVIDIA Volta GPUのユーザー、およびNVIDIA DGX-1とDGX Stationのすべてのユーザーも無料で利用できる。

【関連リンク】
エヌビディア(NVIDIA)

Previous

JDAとサトー、IoTを活用した倉庫管理ソリューションで提携

NECと日本電産、「インテリジェントモータ」搭載のロボットを無線で協調制御する技術を共同開発

Next