K-Lane: Lidar Lane Dataset and Benchmark for Urban Roads and Highways

要約

車線検出は自動運転にとって重要な機能です。
最近のディープ ラーニングの発展とカメラ レーン データセットとベンチマークの公開により、カメラ レーン検出ネットワーク (CLDN) が目覚ましく発展しました。
残念なことに、CLDN はカメラ画像に依存しており、消失点付近で歪むことが多く、照明条件が悪い傾向にあります。
これは、動作計画のために鳥瞰図 (BEV) 上の車線境界線を直接抽出でき、さまざまな照明条件下で堅牢に動作できる Lidar 車線検出ネットワーク (LLDN) とは対照的です。
ただし、大規模な公開 LIDAR レーン データセットが存在しないことが主な理由で、LLDN は積極的に研究されていません。
このペーパーでは、LiDAR 用の世界初かつ最大の公共都市道路および高速道路車線データセットである KAIST-Lane (K-Lane) を紹介します。
K-Lane には 15K を超えるフレームがあり、さまざまな道路および交通条件 (複数の遮蔽レベルの遮蔽された道路、昼と夜の道路、合流 (合流と分岐)、曲線車線など) の下で最大 6 つの車線の注釈が含まれています。
また、グローバル フィーチャー コリレーター (LLDN-GFC) を利用した、Lidar 車線検出ネットワークと呼ばれるベースライン ネットワークも提供しています。
LLDN-GFC は、点群の地表全体に沿ってまばらで薄く、伸びている点群上の車線の空間特性を利用します。
実験結果から、LLDN-GFC は K-Lane で 82.1% の F1 スコアという最先端のパフォーマンスを達成しています。
さらに、LLDN-GFC は、CLDN とは異なり、さまざまな照明条件下で強力なパフォーマンスを示し、従来の CNN を使用する LLDN とは異なり、重度のオクルージョンの場合でも堅牢です。
K-Lane、LLDN-GFC トレーニング コード、事前トレーニングされたモデル、評価、視覚化、注釈ツールを含む完全な開発キットは、https://github.com/kaist-avelab/k-lane で入手できます。

要約(オリジナル)

Lane detection is a critical function for autonomous driving. With the recent development of deep learning and the publication of camera lane datasets and benchmarks, camera lane detection networks (CLDNs) have been remarkably developed. Unfortunately, CLDNs rely on camera images which are often distorted near the vanishing line and prone to poor lighting condition. This is in contrast with Lidar lane detection networks (LLDNs), which can directly extract the lane lines on the bird’s eye view (BEV) for motion planning and operate robustly under various lighting conditions. However, LLDNs have not been actively studied, mostly due to the absence of large public lidar lane datasets. In this paper, we introduce KAIST-Lane (K-Lane), the world’s first and the largest public urban road and highway lane dataset for Lidar. K-Lane has more than 15K frames and contains annotations of up to six lanes under various road and traffic conditions, e.g., occluded roads of multiple occlusion levels, roads at day and night times, merging (converging and diverging) and curved lanes. We also provide baseline networks we term Lidar lane detection networks utilizing global feature correlator (LLDN-GFC). LLDN-GFC exploits the spatial characteristics of lane lines on the point cloud, which are sparse, thin, and stretched along the entire ground plane of the point cloud. From experimental results, LLDN-GFC achieves the state-of-the-art performance with an F1- score of 82.1%, on the K-Lane. Moreover, LLDN-GFC shows strong performance under various lighting conditions, which is unlike CLDNs, and also robust even in the case of severe occlusions, unlike LLDNs using the conventional CNN. The K-Lane, LLDN-GFC training code, pre-trained models, and complete development kits including evaluation, visualization and annotation tools are available at https://github.com/kaist-avelab/k-lane.

arxiv情報

著者 Donghee Paek,Seung-Hyun Kong,Kevin Tirta Wijaya
発行日 2023-11-07 17:06:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO パーマリンク