Lane Graph as Path: Continuity-preserving Path-wise Modeling for Online Lane Graph Construction

要約

オンライン レーン グラフの構築は、自動運転において有望ではありますが、困難なタスクです。
従来の方法では、通常、レーン グラフをピクセルまたはピース レベルでモデル化し、ピクセル単位またはピース単位の接続によってレーン グラフを復元します。これにより、レーンの連続性が失われ、最適なパフォーマンスが得られません。
人間のドライバーは、車線の部分を考慮するのではなく、連続した完全な経路に集中してそれに沿って運転します。
自動運転車は、軌道計画のためにレーングラフからの経路固有のガイダンスも必要とします。
私たちは、交通の流れを示すパスがレーン グラフの原始であると主張します。
これを動機として、私たちは、車線の連続性を適切に保持し、計画のための交通情報をエンコードする、新しい経路ごとの方法で車線グラフをモデル化することを提案します。
我々は、エンドツーエンドでパスを学習し、Path2Graph アルゴリズムを介してレーン グラフを復元する、LaneGAP と呼ばれるパスベースのオンライン レーン グラフ構築方法を紹介します。
私たちは、制御可能で公正な条件下で、困難な nuScenes および Argoverse2 データセットに対して、従来のピクセルベースおよびピースベースの方法よりも LaneGAP の精度と効率が優れていることを定性的および定量的に実証します。
OpenLane-V2 データセットに対する最近の最先端の区分的手法である TopoNet と比較すると、LaneGAP は依然として 1.6 mIoU 優れており、パスごとのモデリングの有効性がさらに検証されています。
補足資料の豊富な視覚化は、LaneGAP がさまざまな交通状況に対処できることを示しています。
コードは \url{https://github.com/hustvl/LaneGAP} でリリースされています。

要約(オリジナル)

Online lane graph construction is a promising but challenging task in autonomous driving. Previous methods usually model the lane graph at the pixel or piece level, and recover the lane graph by pixel-wise or piece-wise connection, which breaks down the continuity of the lane and results in suboptimal performance. Human drivers focus on and drive along the continuous and complete paths instead of considering lane pieces. Autonomous vehicles also require path-specific guidance from lane graph for trajectory planning. We argue that the path, which indicates the traffic flow, is the primitive of the lane graph. Motivated by this, we propose to model the lane graph in a novel path-wise manner, which well preserves the continuity of the lane and encodes traffic information for planning. We present a path-based online lane graph construction method, termed LaneGAP, which end-to-end learns the path and recovers the lane graph via a Path2Graph algorithm. We qualitatively and quantitatively demonstrate the superior accuracy and efficiency of LaneGAP over conventional pixel-based and piece-based methods on the challenging nuScenes and Argoverse2 datasets under controllable and fair conditions. Compared to the recent state-of-the-art piece-wise method TopoNet on the OpenLane-V2 dataset, LaneGAP still outperforms by 1.6 mIoU, further validating the effectiveness of path-wise modeling. Abundant visualizations in the supplementary material show LaneGAP can cope with diverse traffic conditions. Code is released at \url{https://github.com/hustvl/LaneGAP}.

arxiv情報

著者 Bencheng Liao,Shaoyu Chen,Bo Jiang,Tianheng Cheng,Qian Zhang,Wenyu Liu,Chang Huang,Xinggang Wang
発行日 2024-08-15 01:04:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク