NVIDIA、音声・動画・画像・レコメンダーのサービスを実現する、AIデータセンタープラットフォームを発表

NVIDIAは、推論アクセラレーターによって、音声、動画、画像およびレコメンダーのサービスを実現する、AIデータセンタープラットフォームを発表した。

このNVIDIA TensorRTTM Hyperscale推論プラットフォームには、同社の画期的なNVIDIA TuringTMアーキテクチャをベースにしたNVIDIA Tesla T4 GPUと新たな推論ソフトウェアの包括的なセットが含まれている。

エンドツーエンド アプリケーション向けに、より低いレイテンシで最高速の性能を発揮する、このプラットフォームにより、ハイパースケールなデータセンターにおいて、新しいサービスを提供することが可能になった。たとえば、検索クエリへの対応では、可能性のある結果のリストを示すのではなく、自然言語でのインタラクションや直接的な回答を行えるようになるという。

巨大な規模のデータセンターでは、毎日、数十億の音声クエリや翻訳、画像、動画、レコメンデーションおよびソーシャルメディアのインタラクションが処理されている。これらの用途では、処理を行うサーバーと組み合わされた、異なったタイプのニューラルネットワークが個別に必要となる。

データセンターを最適化して、スループットとサーバーの利用度を最大化させるために、NVIDIA TensorRT ハイパースケールプラットフォームには、リアルタイム推論ソフトウェアとTesla T4 GPUが搭載されており、これによって、CPU単体の場合に比べて、クエリの処理速度が最大で40倍早くなるという。

NVIDIAでは、AI推論業界は今後5年間で200億ドルのマーケット規模に成長すると推測している。

NVIDIA TensorRT ハイパースケール プラットフォームには、パワフルで、効率性に優れた推論のために最適化された、ハードウェアとソフトウェアの包括的なセットが含まれている。主要なエレメントは以下の通り。

  • NVIDIA Tesla T4 GPU
    320のTuring Tensorコアと2,560のCUDAコアを搭載した、この新しいGPUには、FP32からFP16、INT8、さらにINT4までの、フレキシブルな多倍精度演算を行う、画期的な性能が備わっている。ほとんどのサーバーに簡単に実装できる、エネルギー効率に優れた、75ワットで小型のPCIeフォームファクターにパッケージされたこのGPUは、FP16での最高性能で65TOPS(Trillion Operations Per Second)、INT8で130TOPS、およびINT4で260TOPSの演算性能を有している。
  • NVIDIA TensorRT 5
    推論オプティマイザーにしてランタイムエンジンであるNVIDIA TensorRT 5は、Turing Tensorコアに対応しており、ニューラルネットワーク最適化のための一連の機能がさらに強化されており、混合精度のワークロードが加速される。
  • NVIDIA TensorRT 推論サーバー
    コンテナ化された、このマイクロサービス ソフトウェアにより、アプリケーションは、データセンターでの処理において、AIモデルを使用することができる。NVIDIA GPU Cloudコンテナレジストリより無料で入手できる、このエンジンは、データセンターのスループットとGPUの利用度を最大化させるほか、すべての人気のAIモデルおよびフレームワークに対応しており、KubernetesおよびDockerに統合させることができる。

無料メルマガ会員に登録しませんか?

膨大な記事を効率よくチェック!

IoTNEWSは、毎日10-20本の新着ニュースを公開しております。 また、デジタル社会に必要な視点を養う、DIGITIDEという特集コンテンツも毎日投稿しております。

そこで、週一回配信される、無料のメールマガジン会員になっていただくと、記事一覧やオリジナルコンテンツの情報が取得可能となります。

  • DXに関する最新ニュース
  • 曜日代わりのデジタル社会の潮流を知る『DIGITIDE』
  • 実践を重要視する方に聞く、インタビュー記事
  • 業務改革に必要なDX手法などDXノウハウ

など、多岐にわたるテーマが配信されております。

また、無料メルマガ会員になると、会員限定のコンテンツも読むことができます。

無料メールから、気になるテーマの記事だけをピックアップして読んでいただけます。 ぜひ、無料のメールマガジンを購読して、貴社の取り組みに役立ててください。

無料メルマガ会員登録