NVIDIAとMicrosoft、協力してAIを加速

NVIDIAは、AIによる大変革に参画する企業を支援するため、企業におけるAIを加速させるMicrosoftとのコラボレーションを発表した。企業は、Microsoft Azureまたはオンプレミス環境のNVIDIA Tesla GPU上で稼働するよう最適化された初の企業専用AIフレームワークを使用し、自社のデータセンターからMicrosoftのクラウドまでをカバーするAI ラットフォームの利用が可能になった。

協力して最適化されたプラットフォームにより、新しいMicrosoft Cognitive Toolkit(以前の CNTK)は、NVLink インターコネクトテクノロジーを備えたPascalアーキテクチャーのGPUを利用する NVIDIA DGX-1スーパーコンピューターなどのNVIDIAのGPU、および現在プレビュー版が提供されているAzure Nシリーズ仮想マシン上で実行される。この組み合わせにより、ディープラーニングのデータを使用すると、これまでにないパフォーマンスと使いやすさがもたらされるという。

結果として、企業はAIを活用し、より適切な意思決定、より迅速な新しい製品とサービスの提供、より優れた顧客満足体験を実現できるようになる。2年間でNVIDIAがディープラーニングに関して協力してきた医療、ライフ サイエンス、エネルギー、金融サービス、自動車、製造業などの企業の数は194倍の19,000社を超えるまでに急増した。

Microsoft Cognitive Toolkit は、他の利用可能なツールキットよりも迅速にディープラーニングアルゴリズムをトレーニングして評価し、CPUからGPUや複数マシンへ、その精度を維持しながら、環境の範囲内で効率的に規模を調整する。NVIDIAとMicrosoftは緊密に協力しながら、GPUベースのシステムおよびMicrosoft AzureクラウドにおいてCognitive Toolkitを加速させ、新興企業や大企業に以下の能力を提供する。

  • 汎用性の向上
    Cognitive Toolkitにより、顧客は、1つのフレームワークを使用し、NVIDIA DGX-1またはNVIDIA GPU ベースのシステムを利用したオンプレミス環境でモデルをトレーニングしてから、そのモデルをAzureクラウドで実行できる。このような拡張性の高いハイブリッドアプローチにより、企業は、インテリジェント機能の迅速な試作と展開が可能になる。
  • パフォーマンスの高速化
    GPUアクセラレーテッドCognitive Toolkitは、CPUにおける実行と比較すると、Azure Nシリーズサーバーおよびオンプレミスで利用可能なNVIDIA GPUでは、ディープラーニングのトレーニングと推論をはるかに速いスピードで実行する。(※)たとえば、PascalおよびNVLinkインターコネクト テクノロジーを備えたNVIDIA DGX-1は、Cognitive ToolkitをCPU サーバーの170倍の高速で実行する。
  • より幅広い利用可能性
    NVIDIA GPUによるAzure Nシリーズ仮想マシンでは、現在、Azureユーザーに対してプレビュー版が提供されており、まもなく一般提供の予定。Azure GPUを利用すると、トレーニングおよびモデルの評価の両方を加速できる。すでに数千件の顧客がプレビュー版の一部を体験し、あらゆる規模の企業がAzure Nシリーズ仮想マシンのTesla GPU上でワークロードを実行している。

NVIDIAとMicrosoftはコラボレーションを継続し、AzureのNVIDIA GPU向けに、また、オンプレミスのNVIDIA DGX-1と接続する場合はハイブリッド クラウドAIプラットフォームの一部として、Cognitive Toolkitの最適化を進める計画だという。

(※)  AlexNet トレーニング バッチ サイズ 128、デュアルソケットの E5-2699v4、44 コアの CPU、CNTK 2.0b2 を使用して NVIDIA DGX-1 システムと比較した。最新の CNTK 2.0b は cuDNN 5.1.8、NCCL 1.6.1 を含む。

【関連リンク】
エヌビディア(NVIDIA)
マイクロソフト(Microsoft)

Previous

NTTデータとニューソン、スマートグラスを活用した遠隔作業支援システムの販売を開始

スマートバリュー、企業の交通事故課題をM2M/IoT技術で解決する「CiEMS 3G」が1年間で契約台数倍増

Next