NVIDIAとVMware、NVIDIA GPUを活用したVMware Cloud on AWSで機械学習・データサイエンス・AIのワークロードを強化

近年、AIテクノロジを利用して、自社のプロセスや提供サービスを差別化する企業が増えている。Gartnerの調査によるとエンタープライズはAIの導入を急いでおり、パワフルなコンピュータを要求するペタバイト規模の企業データから予測モデルを作成して、新しいAI戦略を実行しようとしている。

さまざまな業界で、エンタープライズは画像と音声の認識、先進の金融モデリングおよび自然言語処理といった機械学習アプリケーションが実装されている。これらのアプリケーションで使用されるニューラルネットワークは、NVIDIA GPUによって高速なトレーニングとリアルタイムの推論が可能になる。さらに、VMwareは先頃Bitfusionを買収し、これによりエンタープライズのAIおよび機械学習のワークロードでGPU機能の利用が効率的にできるようになる。

今回、NVIDIAとVMwareは、AI、機械学習およびデータアナリティクスワークフローなどの最新のエンタープライズアプリケーションを強化するため、VMware Cloud on AWSでGPUアクセラレーションサービスを提供する意向を発表した。

同パートナーシップによりVMware Cloud on AWSの利用者は、NVIDIA T4 GPUと新しいNVIDIA Virtual Compute Server (vComputeServer)ソフトウェアが加速するAmazon EC2ベアメタルインスタンスで構成されたクラウドサービスを利用できるようになる。

NVIDIA GPUを活用したVMware Cloud on AWSにより、AI、機械学習およびデータアナリティクスといった、最も演算集中型のワークロードに対応するために、データセンターからAWSクラウドまでを一貫して網羅するVMwareインフラストラクチャによって、展開、移行および運用を統合できるようになる。特徴は以下の通り。

  • シームレスなポータビリティ
    顧客はVMware HCXを使うことで、NVIDIAのvComputeServerソフトウェアとGPUを活用しているワークロードを、ダウンタイムなしでボタンを1度クリックするだけで移動できるようになる。これにより、クラウドまたはオンプレミスでトレーニングと推論を実行するための、より多くの選択肢とより高い柔軟性が提供される。
  • Elastic AWSインフラストラクチャ
    NVIDIA T4で加速されているVMware Cloud on AWSクラスタを自動的に拡大できる機能により、管理者はデータサイエンティストのニーズに応じて、利用可能なトレーニング環境を拡大または縮小させることができる。
  • 最新アプリケーションのコンピューティングを加速
    NVIDIA T4 GPUには、ディープラーニング推論を加速させるためのTensorコアが実装されている。これらをGPU向けの vComputeServerソフトウェアと組み合わせることで、企業は仮想化環境でのAIや機械学習、データアナリティクスといった GPUアクセラレーションワークロードを柔軟に実行できる。
  • 一貫性のあるハイブリッドクラウドインフラストラクチャと運営
    VMware Cloud on AWSにより、組織はハイブリッドクラウド全体で一貫性のあるインフラストラクチャと運営の両方を実現でき、VMwareのvSphere、vSANおよびNSXを、ビジネスクリティカルなアプリケーションを近代化するための基盤として活用できる。IT運営者はオンプレミスのvSphereで実行されているGPUアクセラレーションワークロードと同時に、vCenter内のGPU アクセラレーションワークロードを管理できるようになる。
  • シームレスな、エンドツーエンドのデータサイエンスとアナリティクスのパイプライン
    NVIDIA T4データセンターGPUはメインストリームサーバーを加速し、ディープラーニング、機械学習およびデータアナリティクスのためのNVIDIA GPUアクセラレーションライブラリのコレクションである、NVIDIA RAPIDSを使ったデータサイエンスの手法を加速する。
Previous

センスウェイ、IoT活用のHACCP対応温度管理ソリューションサービス「サーマルコネクト」提供

IIJとアドバンテック、製造業向けプラットフォーム「WISE-PaaS」における協業を発表

Next