富士通研究所、GPUのメモリ効率化技術によりDeep Learningのニューラルネット規模を約2倍に拡大

株式会社富士通研究所は、学習の高精度化に向けたニューラルネットの大規模化に対応するため、GPUの内部メモリの利用効率を向上させる技術を開発し、最大で従来比約2倍規模のニューラルネットの学習を可能にした。

大量の演算が必要なDeep Learningの学習処理において、近年、GPUを用いて高速に学習を行う技術が注目されている。GPUの高速な演算性能を活用するためには、一連の演算に使用するデータをGPUの内部メモリに格納する必要があるが、GPUは搭載しているメモリの量が一般的なコンピュータより小さいため、高速に学習できるニューラルネットの規模が制限されるという課題があった。

今回、学習の開始時にニューラルネットの構造を解析して、メモリ領域を効率的に再利用できるように演算順序とデータのメモリへの配置を最適化するメモリ効率化技術を開発し、オープンソースソフトウェアのDeep Learningフレームワーク「Caffe」に実装して評価。広く研究の領域で使用されている画像認識用ニューラルネット「AlexNet」や「VGGNet」(※)において、GPUの内部メモリ使用量を40%以上削減できるなど、最大で約2倍規模のニューラルネットの学習が可能となることを確認したという。

同技術により、GPU1台で高速に学習できるニューラルネットの規模を拡大でき、より高精度なモデルの開発が可能となる。富士通研究所では、同技術を、富士通株式会社のAI技術「Human Centric AI Zinrai(ジンライ)」の一つとして実用化を目指し、顧客とともにAIの活用に取り組んでいく予定だという。

富士通研究所、GPUのメモリ効率化技術によりDeep Learningのニューラルネット規模を約2倍に拡大
メモリ効率化技術
画像提供:株式会社富士通研究所

※「AlexNet」や「VGGNet」:画像認識を行う多層のニューラルネット。AlexNetは2012年の画像分類コンテスト、VGGNetは2014年の位置検出コンテストでそれぞれ世界最高認識精度を達成し、現在の画像認識ニューラルネットのベースとなっている。

【関連リンク】
富士通研究所(FUJITSU LABORATORIES)
富士通(FUJITSU)

Previous

ヒトの感情を読み取ることで購買行動をかきたてる、感情認識 AI affectiva -Rana El Kaliouby講演

ATR、脳による操作は体による操作よりも ロボットへの適応力が高いことを発見

Next