NVIDIA、AIとハイパフォーマンスコンピューティングを加速するVoltaとTesla V100を発表

NVIDIAは、人工知能 (AI)とハイパフォーマンスコンピューティングにおける進化の次の波を推進するために開発された、パワフルなコンピューティングアーキテクチャー、Voltaを発表した。

また、初のVoltaベースのプロセッサーNVIDIA Tesla V100データセンターGPUも発表。このプロセッサーは、AIの推論とトレーニング向けに、また、HPCとグラフィックスのワークロードを加速するため、スピードとスケーラビリティーを実現する。

NVIDIAの創設者兼 CEOジェンスン・フアン (Jensen Huang)氏は、次のように述べた。「ディープラーニングは、学習するコンピューターソフトウェアを創造する革新的なAIアプローチであり、処理能力に対して飽くなき要求があります。何千人ものNVIDIAのエンジニアは、Voltaの構築に3年を費やしてこのニーズに応えた。」

NVIDIAの第7世代のGPUアーキテクチャーであるVoltaは、210億のトランジスタから構成され、ディープラーニング向けにCPU 100基に相当するパフォーマンスを実現するという。

Voltaは、ピーク性能で、NVIDIA GPUアーキテクチャーの現行世代であるPascalの5倍、2年前に発表されたMaxwellアーキテクチャーの15倍の処理能力を提供。このパフォーマンスの向上は、ムーアの法則で予測されていた値の4倍を超えるものだという。

AIの加速に対する要求は、かつてないほど大きくなっている。がんとの闘い、自動運転車によって交通をより安全にする取り組み、インテリジェントで新しい顧客体験の提供など、次の進化を推進するため、開発者、データサイエンティスト、研究者のニューラルネットワークに対する依存度はますます高くなっている。

ネットワークが複雑になるにつれて、データセンターの処理能力を急激に増大させる必要がある。また、効率的に規模を拡大し、自然言語のバーチャルアシスタントやパーソナライズされた検索と推奨システムなど、きわめて正確なAIベースのサービスが急速に導入されるのをサポートする必要がある。

Voltaは、インサイトを発見するという点では、コンピューティング科学とデータ科学の両面で他に勝るHPCシステム向けプラットフォームを提供。統合されたアーキテクチャー内でCUDAコアと新しいVolta Tensor Coreを組み合わせると、Tesla V100 GPUを備えた1台のサーバーは、従来のHPC向けの数百基におよぶコモディティーCPUの代わりになるとしている。

Tesla V100 GPUは、100テラフロップスのディープラーニングパフォーマンスの壁を打破できる画期的なテクノロジーにより、前世代のNVIDIA GPUから一気に進化した。Tesla V100 GPUは、以下の要素から構成されている。

  • Tensor Coreは、AIワークロードを加速できるよう設計されている。V100は、Tensor Core 640基を備え、120テラフロップスのディープラーニングパフォーマンスを実現。これは、100基のCPUに相当するパフォーマンスだという。
  • 新しいGPUアーキテクチャーは、210億を超えるトランジスタを備えている。統合されたアーキテクチャー内でCUDAコアとTensor Coreを組み合わせ、単一のGPUにおいてAIスーパーコンピューターのパフォーマンスを提供する。
  • NVLinkは、次世代の高速インターコネクトを提供し、GPU同士、またはGPUとCPUをリンクする。スループットは、前世代のNVLinkに対し最大2倍。
  • 900GB/秒の HBM2 DRAMは、Samsungとのコラボレーションにより開発され、前世代のGPUよりメモリ帯域幅を50%増強している。Voltaのコンピューティングスループットをサポートするために不可欠。
  • Volta向けに最適化されたソフトウェア (CUDA、cuDNN、TensorRTソフトウェアなど) は、AIと研究を加速するため主要フレームワークとアプリケーションで活用できる。

【関連リンク】
エヌビディア(NVIDIA)

Previous

NSW、IoT活用による交通量調査を熱海商工会議所と共同で実施

主要メーカーの自動運転車プロジェクトはどういう動きになっているか? ースマートドライブ提供記事

Next