Thursday, August 08, 2024 7:28 AM

ヘルムAI、自動運転シミュレーション用のAIモデル開発

 先進運転支援システム(ADAS)や自動運転システム向けの人工知能(AI)ソフトウェアを開発するヘルム・エーアイ(Helm.ai、カリフォルニア州)は、自動運転車(AV)のスタック全体をシミュレートするよう設計されたマルチセンサー生成AI基盤モデル「WorldGen-1」を発表した。

 ADAS&オートノマス・ビークル・インターナショナルによると、このモデルは、複数のモダリティー(交通手段)と視点にわたって現実的なセンサーと認識データを合成でき、一つのモダリティーから別のモダリティーにセンサーデータを当てはめて運転環境における自車と他の人・車両・物体の動きを予測することもできる。こうしたシミュレーション機能により、自動運転システムの開発と検証が簡素化される。

 「WorldGen-1」は、生成ディープニューラルネットワーク(DNN)アーキテクチャーと同社が開発したディープティーチング(教師なし学習)技術を活用し、視覚、認識、ライダー(光検知・測距装置)、オドメトリー(位置推定)など自動運転スタックのあらゆる階層に及ぶ数千時間の運転データで訓練されており、サラウンドビューカメラ、知覚層でのセマンティックセグメンテーション(画素ごとのラベル付け)、ライダーのフロントビュー(前面図)やバーズアイビュー(鳥かん図)、物理座標での自車経路のリアルなセンサーデータを生成する。

 AVスタック全体でデータを生成することにより、自動運転車の観点から潜在的な現実世界の状況を正確に再現することを目指している。実際のカメラデータから他の複数のモダリティーで数値を推測することができ、この機能は既存のカメラのみのデータセットを合成マルチセンサーデータセットに確実に拡張できるように設計されている。

 また、周囲の環境に応じて歩行者、車両、自車両の行動を予測することもできるため、AIはめったにない状況を含む幅広い局面を想定し、観測された入力データに基づいて考えられる複数の結果をモデル化できるようになる。