株式会社富士通研究所は、学習の高精度化に向けたニューラルネットの大規模化に対応するため、GPUの内部メモリの利用効率を向上させる技術を開発し、最大で従来比約2倍規模のニューラルネットの学習を可能にした。
大量の演算が必要なDeep Learningの学習処理において、近年、GPUを用いて高速に学習を行う技術が注目されている。GPUの高速な演算性能を活用するためには、一連の演算に使用するデータをGPUの内部メモリに格納する必要があるが、GPUは搭載しているメモリの量が一般的なコンピュータより小さいため、高速に学習できるニューラルネットの規模が制限されるという課題があった。
今回、学習の開始時にニューラルネットの構造を解析して、メモリ領域を効率的に再利用できるように演算順序とデータのメモリへの配置を最適化するメモリ効率化技術を開発し、オープンソースソフトウェアのDeep Learningフレームワーク「Caffe」に実装して評価。広く研究の領域で使用されている画像認識用ニューラルネット「AlexNet」や「VGGNet」(※)において、GPUの内部メモリ使用量を40%以上削減できるなど、最大で約2倍規模のニューラルネットの学習が可能となることを確認したという。
同技術により、GPU1台で高速に学習できるニューラルネットの規模を拡大でき、より高精度なモデルの開発が可能となる。富士通研究所では、同技術を、富士通株式会社のAI技術「Human Centric AI Zinrai(ジンライ)」の一つとして実用化を目指し、顧客とともにAIの活用に取り組んでいく予定だという。
画像提供:株式会社富士通研究所
※「AlexNet」や「VGGNet」:画像認識を行う多層のニューラルネット。AlexNetは2012年の画像分類コンテスト、VGGNetは2014年の位置検出コンテストでそれぞれ世界最高認識精度を達成し、現在の画像認識ニューラルネットのベースとなっている。
【関連リンク】
・富士通研究所(FUJITSU LABORATORIES)
・富士通(FUJITSU)
無料メルマガ会員に登録しませんか?
IoTに関する様々な情報を取材し、皆様にお届けいたします。