Helm.ai INC.は、自動運転技術の全体のスタックをシミュレートするためのマルチセンサ生成AIモデル「WorldGen-1」を発表した。
「WorldGen-1」は、生成AIアーキテクチャと効率的な教師なし学習技術であるDeep Teachingを活用し、何千時間もの多様な運転データで訓練されたモデルだ。視覚、認識、Lidar、及びオドメトリを含む自動運転の全てのソフトウェアに対応し、複数のモダリティ及び視点で、センサ及び認識データを同時に生成する。
具体的には、周囲視認カメラのセンサーデータ、認識ソフトウェアでのセマンティックセグメンテーション、Lidarの前方ビュー、Lidarの鳥瞰ビュー、物理座標での自車経路を同時に生成する。センサー、認識、及び経路データを自動運転ソフトウェア全体で一貫して生成することにより、運転世界の状況を正確に仮想環境で再現することができる。
また、実際のカメラデータからセマンティックセグメンテーション、Lidar前方ビュー、Lidar鳥瞰ビュー、自車経路を含む複数の他のモダリティへと推測することが可能だ。この機能により、既存のカメラのみのデータセットを合成マルチセンサデータに拡張し、収集したデータを増加させることができる。
さらに、観察された入力データに基づいて、歩行者、車両、及び周囲環境に関連する自車両の行動を予測し、数分にわたるリアルな動画を生成する。これにより、多様なシナリオ、特に希少なコーナーケースの生成が可能になった。
Helm.aiのCEOであるVladislav Voroninski氏は、「WorldGen-1を使用することで、高機能ADAS及び自動運転システムの開発と検証の統一と効率化の鍵となる、シミュレーションから現実世界へのギャップを縮小するためのさらなる一歩を踏み出している。弊社は自動運転開発を加速し、安全性を向上させるためのツールを提供している」と述べている。
無料メルマガ会員に登録しませんか?

IoTに関する様々な情報を取材し、皆様にお届けいたします。