要約
車線検出は自律走行にとって重要な機能である。近年のディープラーニングの発展やカメラレーンのデータセットやベンチマークの公開に伴い、カメラレーン検出ネットワーク(CLDN)の開発が目覚ましく進んでいます。しかし残念ながら、CLDNはカメラ画像に依存しており、消失線付近で歪んでいることが多く、照明条件も悪くなりがちである。これに対し、ライダー車線検出ネットワーク(LLDN)は、鳥瞰図(BEV)上に車線を直接抽出して運動計画を立てることができ、様々な照明条件下でロバストに動作する。しかし、LLDNはこれまで積極的に研究されてこなかった。その主な理由は、大規模なライダーレーンデータセットが公開されていないためである。本論文では、世界初かつ最大のライダー用公共道路・高速道路レーンデータセットであるKAIST-Lane(K-Lane)を紹介します。K-Laneは15Kフレーム以上あり、様々な道路や交通状況下での最大6車線のアノテーションを含んでいます。例えば、複数のオクルージョンレベルのオクルージョン道路、昼間や夜間の道路、合流(収束と分岐)、カーブ車線などです。また、グローバル特徴相関器を用いたライダー車線検出ネットワーク(LLDN-GFC)と呼ぶベースラインネットワークも提供しています。LLDN-GFCは、点群上の車線の空間特性を利用する。車線は、点群の接地面全体に沿ってまばらに、薄く、伸びているのが特徴である。実験の結果、LLDN-GFCはK-Laneにおいて、F1-スコア82.1%という最新の性能を達成しました。さらに、LLDN-GFCは、CLDNとは異なり、様々な照明条件下で強い性能を示し、また、従来のCNNを用いたLLDNとは異なり、重度のオクルージョンに対してもロバストであることが確認されました。K-Lane、LLDN-GFCの学習コード、学習済みモデル、評価・視覚化・アノテーションツールを含む開発キット一式は、https://github.com/kaist-avelab/k-lane。
要約(オリジナル)
Lane detection is a critical function for autonomous driving. With the recent development of deep learning and the publication of camera lane datasets and benchmarks, camera lane detection networks (CLDNs) have been remarkably developed. Unfortunately, CLDNs rely on camera images which are often distorted near the vanishing line and prone to poor lighting condition. This is in contrast with Lidar lane detection networks (LLDNs), which can directly extract the lane lines on the bird’s eye view (BEV) for motion planning and operate robustly under various lighting conditions. However, LLDNs have not been actively studied, mostly due to the absence of large public lidar lane datasets. In this paper, we introduce KAIST-Lane (K-Lane), the world’s first and the largest public urban road and highway lane dataset for Lidar. K-Lane has more than 15K frames and contains annotations of up to six lanes under various road and traffic conditions, e.g., occluded roads of multiple occlusion levels, roads at day and night times, merging (converging and diverging) and curved lanes. We also provide baseline networks we term Lidar lane detection networks utilizing global feature correlator (LLDN-GFC). LLDN-GFC exploits the spatial characteristics of lane lines on the point cloud, which are sparse, thin, and stretched along the entire ground plane of the point cloud. From experimental results, LLDN-GFC achieves the state-of-the-art performance with an F1- score of 82.1%, on the K-Lane. Moreover, LLDN-GFC shows strong performance under various lighting conditions, which is unlike CLDNs, and also robust even in the case of severe occlusions, unlike LLDNs using the conventional CNN. The K-Lane, LLDN-GFC training code, pre-trained models, and complete development kits including evaluation, visualization and annotation tools are available at https://github.com/kaist-avelab/k-lane.
arxiv情報
著者 | Donghee Paek,Seung-Hyun Kong,Kevin Tirta Wijaya |
発行日 | 2022-06-06 11:09:19+00:00 |
arxivサイト | arxiv_id(pdf) |