FRNet: Frustum-Range Networks for Scalable LiDAR Segmentation

要約

LiDAR のセグメンテーションは自動運転システムにとって重要です。
最近のレンジビューアプローチはリアルタイム処理に有望です。
ただし、コンテキスト情報の破損による影響は避けられず、予測を改良するための後処理技術に大きく依存しています。
この研究では、対応する錐台 LiDAR ポイントを使用して距離画像ピクセルのコンテキスト情報を復元する、シンプルかつ強力な FRNet を提案します。
まず、錐台特徴エンコーダ モジュールを使用して錐台領域内のポイントごとの特徴を抽出します。これはシーンの一貫性を維持し、ポイントレベルの予測に重要です。
次に、ポイントごとのフィーチャを階層的に更新するために錐台ポイント融合モジュールが導入され、これにより各ポイントが錐台フィーチャを介してより多くの周囲情報を抽出できるようになります。
最後に、ヘッド融合モジュールを使用して、最終的な意味予測のためにさまざまなレベルで特徴を融合します。
さまざまなタスク設定の下で 4 つの一般的な LiDAR セグメンテーション ベンチマークに関する広範な実験により、当社の優位性が実証されました。
FRNet は、高効率を維持しながら競争力のあるパフォーマンスを実現します。
コードは公開されています。

要約(オリジナル)

LiDAR segmentation is crucial for autonomous driving systems. The recent range-view approaches are promising for real-time processing. However, they suffer inevitably from corrupted contextual information and rely heavily on post-processing techniques for prediction refinement. In this work, we propose a simple yet powerful FRNet that restores the contextual information of the range image pixels with corresponding frustum LiDAR points. Firstly, a frustum feature encoder module is used to extract per-point features within the frustum region, which preserves scene consistency and is crucial for point-level predictions. Next, a frustum-point fusion module is introduced to update per-point features hierarchically, which enables each point to extract more surrounding information via the frustum features. Finally, a head fusion module is used to fuse features at different levels for final semantic prediction. Extensive experiments on four popular LiDAR segmentation benchmarks under various task setups demonstrate our superiority. FRNet achieves competitive performance while maintaining high efficiency. The code is publicly available.

arxiv情報

著者 Xiang Xu,Lingdong Kong,Hui Shuai,Qingshan Liu
発行日 2023-12-07 17:59:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク