要約
運転シーンの理解は、センサーデータを通じて包括的なシーン情報を取得し、自動運転車の安全に不可欠な下流タスクの基礎を提供することです。
オブジェクト検出やシーン グラフ生成などの特定の認識タスクが一般的に使用されます。
ただし、これらのタスクの結果は、高次元のシーンの特徴からのサンプリングの特性評価と同等であるだけであり、シナリオを表すには十分ではありません。
さらに、知覚タスクの目標は、自我の軌道に影響を与える可能性のあるものだけに焦点を当てる人間の運転とは矛盾します。
したがって、計画モジュールによって導かれるシーン理解結果として暗黙的な高次元シーン特徴を抽出し、補助知覚タスクを使用してシーン理解の妥当性を検証する、エンドツーエンドの解釈可能な暗黙的運転シーン理解(II-DSU)モデルを提案します。
視覚化のために。
CARLA ベンチマークの実験結果は、私たちのアプローチが新しい最先端を達成し、運転に関連するより豊富なシーン情報を具体化するシーン特徴を取得できることを示し、下流計画の優れたパフォーマンスを可能にします。
要約(オリジナル)
Driving scene understanding is to obtain comprehensive scene information through the sensor data and provide a basis for downstream tasks, which is indispensable for the safety of self-driving vehicles. Specific perception tasks, such as object detection and scene graph generation, are commonly used. However, the results of these tasks are only equivalent to the characterization of sampling from high-dimensional scene features, which are not sufficient to represent the scenario. In addition, the goal of perception tasks is inconsistent with human driving that just focuses on what may affect the ego-trajectory. Therefore, we propose an end-to-end Interpretable Implicit Driving Scene Understanding (II-DSU) model to extract implicit high-dimensional scene features as scene understanding results guided by a planning module and to validate the plausibility of scene understanding using auxiliary perception tasks for visualization. Experimental results on CARLA benchmarks show that our approach achieves the new state-of-the-art and is able to obtain scene features that embody richer scene information relevant to driving, enabling superior performance of the downstream planning.
arxiv情報
著者 | Yiyang Sun,Xiaonian Wang,Yangyang Zhang,Jiagui Tang,Xiaqiang Tang,Jing Yao |
発行日 | 2023-08-02 14:43:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google