NVIDIAは、人工知能 (AI)とハイパフォーマンスコンピューティングにおける進化の次の波を推進するために開発された、パワフルなコンピューティングアーキテクチャー、Voltaを発表した。
また、初のVoltaベースのプロセッサーNVIDIA Tesla V100データセンターGPUも発表。このプロセッサーは、AIの推論とトレーニング向けに、また、HPCとグラフィックスのワークロードを加速するため、スピードとスケーラビリティーを実現する。
NVIDIAの創設者兼 CEOジェンスン・フアン (Jensen Huang)氏は、次のように述べた。「ディープラーニングは、学習するコンピューターソフトウェアを創造する革新的なAIアプローチであり、処理能力に対して飽くなき要求があります。何千人ものNVIDIAのエンジニアは、Voltaの構築に3年を費やしてこのニーズに応えた。」
NVIDIAの第7世代のGPUアーキテクチャーであるVoltaは、210億のトランジスタから構成され、ディープラーニング向けにCPU 100基に相当するパフォーマンスを実現するという。
Voltaは、ピーク性能で、NVIDIA GPUアーキテクチャーの現行世代であるPascalの5倍、2年前に発表されたMaxwellアーキテクチャーの15倍の処理能力を提供。このパフォーマンスの向上は、ムーアの法則で予測されていた値の4倍を超えるものだという。
AIの加速に対する要求は、かつてないほど大きくなっている。がんとの闘い、自動運転車によって交通をより安全にする取り組み、インテリジェントで新しい顧客体験の提供など、次の進化を推進するため、開発者、データサイエンティスト、研究者のニューラルネットワークに対する依存度はますます高くなっている。
ネットワークが複雑になるにつれて、データセンターの処理能力を急激に増大させる必要がある。また、効率的に規模を拡大し、自然言語のバーチャルアシスタントやパーソナライズされた検索と推奨システムなど、きわめて正確なAIベースのサービスが急速に導入されるのをサポートする必要がある。
Voltaは、インサイトを発見するという点では、コンピューティング科学とデータ科学の両面で他に勝るHPCシステム向けプラットフォームを提供。統合されたアーキテクチャー内でCUDAコアと新しいVolta Tensor Coreを組み合わせると、Tesla V100 GPUを備えた1台のサーバーは、従来のHPC向けの数百基におよぶコモディティーCPUの代わりになるとしている。
Tesla V100 GPUは、100テラフロップスのディープラーニングパフォーマンスの壁を打破できる画期的なテクノロジーにより、前世代のNVIDIA GPUから一気に進化した。Tesla V100 GPUは、以下の要素から構成されている。
- Tensor Coreは、AIワークロードを加速できるよう設計されている。V100は、Tensor Core 640基を備え、120テラフロップスのディープラーニングパフォーマンスを実現。これは、100基のCPUに相当するパフォーマンスだという。
- 新しいGPUアーキテクチャーは、210億を超えるトランジスタを備えている。統合されたアーキテクチャー内でCUDAコアとTensor Coreを組み合わせ、単一のGPUにおいてAIスーパーコンピューターのパフォーマンスを提供する。
- NVLinkは、次世代の高速インターコネクトを提供し、GPU同士、またはGPUとCPUをリンクする。スループットは、前世代のNVLinkに対し最大2倍。
- 900GB/秒の HBM2 DRAMは、Samsungとのコラボレーションにより開発され、前世代のGPUよりメモリ帯域幅を50%増強している。Voltaのコンピューティングスループットをサポートするために不可欠。
- Volta向けに最適化されたソフトウェア (CUDA、cuDNN、TensorRTソフトウェアなど) は、AIと研究を加速するため主要フレームワークとアプリケーションで活用できる。
【関連リンク】
・エヌビディア(NVIDIA)
無料メルマガ会員に登録しませんか?
IoTに関する様々な情報を取材し、皆様にお届けいたします。