昨今、3Dアバターを使った活動や交流が身近になっているが、現状では表情を認識し、アバターの描画処理や描画した映像の伝送などによる遅延が発生し、3Dアバターに反映するまでにはタイムラグが生じる。
そうした中、株式会社KDDI総合研究所は本日、画像認識技術で抽出した顔の表情データから、AIで未来の表情を予測してアバター描画する技術を開発したことを発表した。
今回の技術では、表情データそのものに加え、表情データの単位時間当たりの変化量(微分値)を入力データとして、未来の表情データを推定する機械学習モデル(再帰型ニューラルネットワーク※)を新たに開発することで、予測精度の向上を図った。
機械学習モデルの内部構造を変えることなく、入力データを改良することで、予測処理の負荷を増やすことなく、複雑な時系列変化に対応できるようになった。
また、KDDI総合研究所は、スマートフォン向けにフォトリアルな3DアバターのAR配信技術を開発しており、今回の技術と併用することにより、通信環境に関わらず活用することが可能となる。
今後は、この技術の予測精度をさらに高めるとともに、低速な通信回線においても映像伝送にかかる遅延を相殺できるよう、予測可能な時間の延伸に取り組むとしている。
再帰型ニューラルネットワーク: 機械学習の1つであるニューラルネットワークを拡張して時系列データを扱えるようにしたもの。出力を再び入力に利用する再帰型のネットワーク構造により、過去の情報に基づいた予測を行うことが可能。
無料メルマガ会員に登録しませんか?
膨大な記事を効率よくチェック!
IoTに関する様々な情報を取材し、皆様にお届けいたします。