要約
LiDARの知覚範囲が広がるにつれて、LiDARに基づく3Dオブジェクト検出は、自律走行における長距離知覚タスクの中で支配的なタスクとなる。主流の3D物体検出器は、通常、ネットワークバックボーンと予測ヘッドに高密度な特徴マップを構築します。しかし、高密度な特徴マップにかかる計算コストと空間コストは知覚距離の2次関数であり、長距離の設定にはほとんどスケールアップできない。そこで、LiDARを用いた効率的な長距離物体検出を可能にするため、完全スパース3次元物体検出器(FSD)を構築する。FSDの計算量と空間コストは、点数に対してほぼ線形であり、知覚範囲に依存しない。FSDは一般的なスパースボクセルエンコーダと新しいスパースインスタンス認識(SIR)モジュールで構築されている。SIRはまず、点をインスタンスにグループ化し、インスタンス単位の特徴抽出と予測を適用する。このように、SIRは、すべての中心ベースまたはアンカーベースの検出器の完全スパースアーキテクチャの設計の妨げとなる、中心特徴の欠落の問題を解決することができる。さらに、SIRは点をインスタンスにグループ化することで、従来の点ベースの手法における時間のかかる近傍探索を回避している。FSDの動作メカニズムを明らかにするために、大規模なWaymo Open Datasetで広範な実験を行い、最先端の性能を報告する。また、長距離検出におけるFSDの優位性を示すため、Waymo Open Dataset($75m$)よりもはるかに知覚範囲が広い($200m$)Argoverse 2 Datasetでも実験を行う。このような大きな知覚範囲において、FSDは最先端の性能を達成し、密な相手よりも2.4$times$高速であることが分かりました。コードは、https://github.com/TuSimple/SST で公開されます。
要約(オリジナル)
As the perception range of LiDAR increases, LiDAR-based 3D object detection becomes a dominant task in the long-range perception task of autonomous driving. The mainstream 3D object detectors usually build dense feature maps in the network backbone and prediction head. However, the computational and spatial costs on the dense feature map are quadratic to the perception range, which makes them hardly scale up to the long-range setting. To enable efficient long-range LiDAR-based object detection, we build a fully sparse 3D object detector (FSD). The computational and spatial cost of FSD is roughly linear to the number of points and independent of the perception range. FSD is built upon the general sparse voxel encoder and a novel sparse instance recognition (SIR) module. SIR first groups the points into instances and then applies instance-wise feature extraction and prediction. In this way, SIR resolves the issue of center feature missing, which hinders the design of the fully sparse architecture for all center-based or anchor-based detectors. Moreover, SIR avoids the time-consuming neighbor queries in previous point-based methods by grouping points into instances. We conduct extensive experiments on the large-scale Waymo Open Dataset to reveal the working mechanism of FSD, and state-of-the-art performance is reported. To demonstrate the superiority of FSD in long-range detection, we also conduct experiments on Argoverse 2 Dataset, which has a much larger perception range ($200m$) than Waymo Open Dataset ($75m$). On such a large perception range, FSD achieves state-of-the-art performance and is 2.4$\times$ faster than the dense counterpart. Codes will be released at https://github.com/TuSimple/SST.
arxiv情報
著者 | Lue Fan,Feng Wang,Naiyan Wang,Zhaoxiang Zhang |
発行日 | 2022-10-03 15:31:24+00:00 |
arxivサイト | arxiv_id(pdf) |