GroupLane: End-to-End 3D Lane Detection with Channel-wise Grouping

要約

実際の展開の需要により、3D 車線検出では効率が非常に重要です。
この研究では、高い検出精度を維持しながら、シンプルで高速なエンドツーエンドの検出器を提案します。
具体的には、行ごとの分類に基づいて完全に畳み込みヘッドのセットを考案します。
以前の対応物とは対照的に、私たちのものは垂直レーンと水平レーンの両方の認識をサポートしています。
さらに、私たちの方法は鳥瞰図で行ごとの分類を実行する最初の方法です。
ヘッドでは、フィーチャを複数のグループに分割し、フィーチャの各グループがレーン インスタンスに対応します。
トレーニング中、予測は損失を計算するために提案されたシングルウィン 1 対 1 マッチングを使用してレーン ラベルに関連付けられ、推論のための後処理操作は必要ありません。
このようにして、私たちが提案する完全畳み込み検出器 GroupLane は、DETR のようなエンドツーエンドの検出を実現します。
OpenLane、Once-3DLanes、OpenLane-Huawei の 3 つの実際の 3D レーン ベンチマークで評価したところ、バックボーンとして ConvNext-Base を採用した GroupLane は、OpenLane 検証セットで公開されている最先端の PersFormer の F1 スコアを 13.6% 上回りました。
さらに、ResNet18 を搭載した GroupLane は依然として PersFormer の F1 スコアを 4.9% 上回っていますが、推論速度は 7 倍近く速く、FLOP はその 13.3% にすぎません。

要約(オリジナル)

Efficiency is quite important for 3D lane detection due to practical deployment demand. In this work, we propose a simple, fast, and end-to-end detector that still maintains high detection precision. Specifically, we devise a set of fully convolutional heads based on row-wise classification. In contrast to previous counterparts, ours supports recognizing both vertical and horizontal lanes. Besides, our method is the first one to perform row-wise classification in bird-eye-view. In the heads, we split feature into multiple groups and every group of feature corresponds to a lane instance. During training, the predictions are associated with lane labels using the proposed single-win one-to-one matching to compute loss, and no post-processing operation is demanded for inference. In this way, our proposed fully convolutional detector, GroupLane, realizes end-to-end detection like DETR. Evaluated on 3 real world 3D lane benchmarks, OpenLane, Once-3DLanes, and OpenLane-Huawei, GroupLane adopting ConvNext-Base as the backbone outperforms the published state-of-the-art PersFormer by 13.6% F1 score in the OpenLane validation set. Besides, GroupLane with ResNet18 still surpasses PersFormer by 4.9% F1 score, while the inference speed is nearly 7x faster and the FLOPs is only 13.3% of it.

arxiv情報

著者 Zhuoling Li,Chunrui Han,Zheng Ge,Jinrong Yang,En Yu,Haoqian Wang,Hengshuang Zhao,Xiangyu Zhang
発行日 2023-07-18 17:55:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク