要約
オンライン レーン グラフの構築は、自動運転において有望ではありますが、困難なタスクです。
従来の方法では通常、レーン グラフをピクセルまたはピース レベルでモデル化し、ピクセル単位またはピース単位の接続によってレーン グラフを復元するため、レーンの連続性が失われます。
人間のドライバーは、車線の部分を考慮するのではなく、連続した完全な経路に集中してそれに沿って運転します。
自動運転車は、軌道計画のためにレーングラフからの経路固有のガイダンスも必要とします。
私たちは、交通の流れを示すパスがレーン グラフの原始であると主張します。
これを動機として、私たちは、車線の連続性を適切に保持し、計画のための交通情報をエンコードする、新しい経路ごとの方法で車線グラフをモデル化することを提案します。
我々は、エンドツーエンドでパスを学習し、Path2Graph アルゴリズムを介してレーン グラフを復元する、LaneGAP と呼ばれるパスベースのオンライン レーン グラフ構築方法を紹介します。
私たちは、困難な nuScenes および Argoverse2 データセットにおいて、従来のピクセルベースおよびピースベースの方法に対する LaneGAP の優位性を定性的および定量的に実証します。
豊富なビジュアライゼーションは、LaneGAP がさまざまな交通状況に対処できることを示しています。
コードとモデルは、将来の研究を促進するために \url{https://github.com/hustvl/LaneGAP} でリリースされます。
要約(オリジナル)
Online lane graph construction is a promising but challenging task in autonomous driving. Previous methods usually model the lane graph at the pixel or piece level, and recover the lane graph by pixel-wise or piece-wise connection, which breaks down the continuity of the lane. Human drivers focus on and drive along the continuous and complete paths instead of considering lane pieces. Autonomous vehicles also require path-specific guidance from lane graph for trajectory planning. We argue that the path, which indicates the traffic flow, is the primitive of the lane graph. Motivated by this, we propose to model the lane graph in a novel path-wise manner, which well preserves the continuity of the lane and encodes traffic information for planning. We present a path-based online lane graph construction method, termed LaneGAP, which end-to-end learns the path and recovers the lane graph via a Path2Graph algorithm. We qualitatively and quantitatively demonstrate the superiority of LaneGAP over conventional pixel-based and piece-based methods on challenging nuScenes and Argoverse2 datasets. Abundant visualizations show LaneGAP can cope with diverse traffic conditions. Code and models will be released at \url{https://github.com/hustvl/LaneGAP} for facilitating future research.
arxiv情報
著者 | Bencheng Liao,Shaoyu Chen,Bo Jiang,Tianheng Cheng,Qian Zhang,Wenyu Liu,Chang Huang,Xinggang Wang |
発行日 | 2023-12-17 10:52:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google