Anchor3DLane: Learning to Regress 3D Anchors for Monocular 3D Lane Detection

要約

単眼3Dレーン検出は、奥行き情報がないため、困難なタスクである。車線検出の一般的な解決策は、まず前方視(FV)画像や特徴を逆透視マッピング(IPM)により鳥瞰図(BEV)空間に変換し、BEVの特徴から車線を検出することである。しかし、IPMは平坦な地面の仮定に依存し、文脈情報を失うため、BEV表現から3次元情報を復元することは不正確である。そこで、BEVを取り除き、FVから直接3次元レーンを予測する試みがなされているが、3次元レーンの構造化表現がないため、他のBEVベースの手法に劣るのが現状である。本論文では、3次元空間における3次元レーンアンカーを定義し、FV表現から直接3次元レーンを予測するBEVフリーな手法Anchor3DLaneを提案する。3DレーンアンカーをFVの特徴量に投影し、構造情報と文脈情報の両方を含む特徴量を抽出することで、正確な予測を行うことができる。さらに、Anchor3DLaneをマルチフレームに拡張し、時間情報を取り入れることで、性能向上を図る。さらに、レーン間の等幅特性を利用したグローバル最適化手法を開発し、予測値の横誤差を低減する。3つの一般的な3D車線検出ベンチマークを用いた広範な実験により、我々のAnchor3DLaneは、従来のBEVベースの手法を上回り、最先端の性能を達成することが示された。

要約(オリジナル)

Monocular 3D lane detection is a challenging task due to its lack of depth information. A popular solution to 3D lane detection is to first transform the front-viewed (FV) images or features into the bird-eye-view (BEV) space with inverse perspective mapping (IPM) and detect lanes from BEV features. However, the reliance of IPM on flat ground assumption and loss of context information makes it inaccurate to restore 3D information from BEV representations. An attempt has been made to get rid of BEV and predict 3D lanes from FV representations directly, while it still underperforms other BEV-based methods given its lack of structured representation for 3D lanes. In this paper, we define 3D lane anchors in the 3D space and propose a BEV-free method named Anchor3DLane to predict 3D lanes directly from FV representations. 3D lane anchors are projected to the FV features to extract their features which contain both good structural and context information to make accurate predictions. We further extend Anchor3DLane to the multi-frame setting to incorporate temporal information for performance improvement. In addition, we also develop a global optimization method that makes use of the equal-width property between lanes to reduce the lateral error of predictions. Extensive experiments on three popular 3D lane detection benchmarks show that our Anchor3DLane outperforms previous BEV-based methods and achieves state-of-the-art performances.

arxiv情報

著者 Shaofei Huang,Zhenwei Shen,Zehao Huang,Zihan Ding,Jiao Dai,Jizhong Han,Naiyan Wang,Si Liu
発行日 2023-01-06 04:35:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク