Helm.aiは、自動運転の開発および検証用に、リアルな運転シーンの動画を生成するAIモデル「VidGen-1」を発表した。
Helm.aiの動画生成AIモデルは、数千時間の多様な運転映像データに基づいてトレーニングされており、ディープニューラルネットワーク(DNN)アーキテクチャと教師なし学習技術「Deep Teaching」を組み合わせて、リアルな運転シーンの動画を生成する。
なお、これらの動画は384×640の解像度、最大30fpsのフレームレート、数分間の長さで生成される。
また、「VidGen-1」は、異なる地理的条件、複数の車両タイプ、カメラ視点から運転シーンの動画を生成し、リアルな外観と一貫したオブジェクトの動きを生成することに加え、交通ルールに従った行動をする自車両と周囲のエージェントの動きを学習し、再現する。
具体的には、都市部や郊外環境、様々な車両、歩行者、自転車、交差点、曲がり角、気象条件、照明効果、濡れた路面や反射する建物の壁、車のフードに映る反射などを再現する。
Helm.aiのCEO兼共同創業者であるVladislav Voroninski氏は、「弊社の技術は汎用的であり、自動運転、ロボティクス、その他の動画生成が必要なあらゆる分野に等しく効果的に適用できる」と述べている。
またVoroninski氏は、「動画の次のフレームを予測することは、文章の次の単語を予測することに似ているが、はるかに高次元だ」と付け加えた。「運転シーンのリアルな動画を生成することは、自動運転における予測の最も進んだ形態である。この技術は、基本的に運転が次に何が起こるかを予測することに関連しており、自動運転にとって非常に重要だ。」とコメントしている。
[「VidGen-1」が生成した動画]無料メルマガ会員に登録しませんか?

IoTに関する様々な情報を取材し、皆様にお届けいたします。