要約
地図は、自動運転システムの下流アプリケーションにとって重要な情報として、通常、車線または中心線で表されます。
ただし、地図学習に関する既存の文献は、主にジオメトリベースの車線の検出、または中心線のトポロジー関係の認識に焦点を当てています。
これらの方法は両方とも、車線と中心線の本質的な関係、つまり車線が中心線を結合するという関係を無視します。
1 つのモデルで両方のタイプの車線を単純に予測することは学習目標において相互に除外されますが、私たちはジオメトリ情報とトポロジー情報の両方をシームレスに組み込む新しい表現として車線セグメントを提唱します。
そこで、道路構造の完全な表現を取得するために車線セグメントを生成する初のエンドツーエンド マッピング ネットワークである LaneSegNet を紹介します。
私たちのアルゴリズムには 2 つの重要な変更が加えられています。
1 つは、長距離特徴空間内の重要な領域の詳細をキャプチャするレーン アテンション モジュールです。
もう 1 つは、レーン アテンションのための位置事前確率の学習を強化する、参照ポイントの同一の初期化戦略です。
OpenLane-V2 データセットでは、LaneSegNet は、\textit{i.e.}、地図要素検出 (+4.8 mAP)、中心線認識 (+6.9 DET$_l$)、および新しく定義されたタスクの 3 つのタスクにわたって大幅な向上により、以前の対応物を上回りました。
、車線セグメントの知覚 (+5.6 mAP)。
さらに、14.7 FPS のリアルタイム推論速度を実現します。
コードは https://github.com/OpenDriveLab/LaneSegNet からアクセスできます。
要約(オリジナル)
A map, as crucial information for downstream applications of an autonomous driving system, is usually represented in lanelines or centerlines. However, existing literature on map learning primarily focuses on either detecting geometry-based lanelines or perceiving topology relationships of centerlines. Both of these methods ignore the intrinsic relationship of lanelines and centerlines, that lanelines bind centerlines. While simply predicting both types of lane in one model is mutually excluded in learning objective, we advocate lane segment as a new representation that seamlessly incorporates both geometry and topology information. Thus, we introduce LaneSegNet, the first end-to-end mapping network generating lane segments to obtain a complete representation of the road structure. Our algorithm features two key modifications. One is a lane attention module to capture pivotal region details within the long-range feature space. Another is an identical initialization strategy for reference points, which enhances the learning of positional priors for lane attention. On the OpenLane-V2 dataset, LaneSegNet outperforms previous counterparts by a substantial gain across three tasks, \textit{i.e.}, map element detection (+4.8 mAP), centerline perception (+6.9 DET$_l$), and the newly defined one, lane segment perception (+5.6 mAP). Furthermore, it obtains a real-time inference speed of 14.7 FPS. Code is accessible at https://github.com/OpenDriveLab/LaneSegNet.
arxiv情報
著者 | Tianyu Li,Peijin Jia,Bangjun Wang,Li Chen,Kun Jiang,Junchi Yan,Hongyang Li |
発行日 | 2024-02-26 09:24:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google