IBM、AI向けサーバーを発表、x86の約4倍の高速ディープ・ラーニングを実現

IBMは本日、POWER9プロセッサーを搭載した次世代のPower Systemsサーバーを発表した。

コンピューティング能力を駆使するAIワークロード向けに設計されたPOWER9システムは、ディープ・ラーニング・フレームワークの機械学習時間をx86サーバーと比較して4倍近く(※1)高速化することができたという。

POWER9ベースのPower System AC922には、PCI-Express 4.0、次世代のNVIDIA NVLink、OpenCAPIが初めて搭載。この組み合わせにより、PCI-E 3.0ベースのx86システムに比べて9.5倍3データ転送を高速化できるという計算結果が得られた。

AC922は、Chainer、TensorFlow、Caffeなどの一般的なAIフレームワークとKineticaなどの高速データベースにおけるパフォーマンスの向上を実証すべく設計された。

POWER9は、スーパーコンピュータとして期待される米国エネルギー省の「Summit」および「Sierra」の中枢部で使用され、Googleでも採用されている。

ディープ・ラーニングは急成長している機械学習方式で、膨大なプロセスとデータを高速処理しながら、重要な点を洗い出し、それらを順位付けして蓄積し、分析結果を提供する。

増加するこの需要を満たすべく、IBMは4年前、Linux上のデータ処理量の多いAIとディープ・ラーニングのワークロード向けに、制約のないデータ転送、ストリーミング・センサー、アルゴリズムを管理する新しいアーキテクチャーの構築を目指し、ゼロからPOWER9チップの設計に着手した。

アクセラレーション機能を備えたPowerアーキテクチャー向けに最適化された、ディープ・ラーニング・フレームワークとライブラリーを、IBM PowerAIで提供しており、データ・サイエンティストは数分でこれを起動し、実行することができるという。

また、IBM研究所は、Powerアーキテクチャー向けに幅広いテクノロジーを開発。IBM研究員は、PowerAI Distributed Deep Learningツールキット(US)を使用して、ディープ・ラーニングに必要な時間をすでに数日から数時間に短縮したということだ。

AI時代には、これまでにない処理能力とスピードが要求される。また、テクノロジーとツールを提供する革新的な企業によるオープンなエコシステムも必要だ。

IBMは、300社を超えるOpenPOWER FoundationとOpenCAPI Consortiumのメンバーから構成され、オープンなコミュニティーを後援し、イノベーションを支援していくという。

※1 この結果は、Enlarged Imagenet Dataset(2240×2240)上でEnlarged GoogleNetモデルを1,000回繰り返し実行したIBM社内の計測に基づいている。

  • ハードウェア:Power System AC922、40コア(2 x 20cチップ)、POWER9(NVLink 2.0、2.25 GHz、1024 GBメモリー、4xTesla V100 GPU)、Red Hat Enterprise Linux 7.4 for Power Little Endian (POWER9) with CUDA 9.1/ CUDNN 7)。
  • 比較対象スタック:2x Xeon E5-2640 v4、20コア(2 x 10cチップ)/40スレッド、Intel Xeon E5-2640 v4、2.4 GHz、1024 GBメモリー、4xTesla V100 GPU、Ubuntu 16.04 with CUDA 9.1/ CUDNN 7。
  • ソフトウェア:IBM Caffe

【関連リンク】
アイビーエム(IBM)

IoT/AIのトレンドや事例をお調べですか?
IoTNEWSでは、IoT/AIのトレンドレポートを毎月作成、法人会員限定で配布しています。 また、毎月有識者による様々なテーマでの勉強会を実施しております。
詳細はこちら
Previous

NXP、リアルタイムOS拡張とTSNサポートを備えた産業用Linuxディストリビューションを発表

世界のスマートアグリ(農業IoT)の今を調査レポート[Premium]

Next