要約
自動運転には、現場の状況を正確に理解する情報が必要です。
この目的を達成するために、自律エージェントは、認識スタックの一部として物体検出とオンライン BEV レーン グラフ抽出メソッドを展開します。
この研究では、3D オブジェクト検出出力を使用してローカル レーン グラフ推定の精度を向上させるためのアーキテクチャと損失定式化を提案します。
提案された方法は、中心線をクラスターの中心として、オブジェクトをクラスターの中心にわたる確率分布が割り当てられるデータ点として考慮することによって、オブジェクトを中心線に割り当てる方法を学習します。
このトレーニング スキームにより、レーンとオブジェクト間の関係を直接監視できるため、パフォーマンスの向上につながります。
提案された方法は、最先端の方法に比べてレーン グラフの推定を大幅に改善します。
広範なアブレーションは、既存の 3D オブジェクト検出方法の出力を使用することで、私たちの方法が大幅なパフォーマンスの向上を達成できることを示しています。
私たちのメソッドは検出メソッドの中間表現ではなく検出出力を使用するため、メソッドの単一モデルはテスト時に任意の検出メソッドを使用できます。
要約(オリジナル)
Autonomous driving requires accurate local scene understanding information. To this end, autonomous agents deploy object detection and online BEV lane graph extraction methods as a part of their perception stack. In this work, we propose an architecture and loss formulation to improve the accuracy of local lane graph estimates by using 3D object detection outputs. The proposed method learns to assign the objects to centerlines by considering the centerlines as cluster centers and the objects as data points to be assigned a probability distribution over the cluster centers. This training scheme ensures direct supervision on the relationship between lanes and objects, thus leading to better performance. The proposed method improves lane graph estimation substantially over state-of-the-art methods. The extensive ablations show that our method can achieve significant performance improvements by using the outputs of existing 3D object detection methods. Since our method uses the detection outputs rather than detection method intermediate representations, a single model of our method can use any detection method at test time.
arxiv情報
著者 | Yigit Baran Can,Alexander Liniger,Danda Pani Paudel,Luc Van Gool |
発行日 | 2023-07-20 15:21:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google