Efficient Spatial-Temporal Information Fusion for LiDAR-Based 3D Moving Object Segmentation

要約

正確な移動物体セグメンテーションは、自律走行に不可欠なタスクである。衝突回避、経路計画、静止マップ構築など、多くの下流タスクに有効な情報を提供することができる。空間-時間情報をどのように効果的に利用するかは、3D LiDAR移動物体セグメンテーション(LiDAR-MOS)にとって重要な問題である。本研究では、LiDAR-MOSの性能を向上させるために、LiDARスキャンの空間-時間情報と異なる表現様式の両方を利用した新しいディープニューラルネットワークを提案する。具体的には、まずレンジ画像に基づく二重分岐構造を用いて、連続したLiDARスキャンから得られる空間情報と時間情報を別々に扱い、後に動き誘導型注意モジュールを用いてそれらを結合する。また、3Dスパースコンボリューションによるポイントリファインメントモジュールを用いて、LiDARレンジ画像と点群表現の両方からの情報を融合し、オブジェクトの境界上のアーチファクトを低減します。提案手法の有効性を、SemanticKITTIのLiDAR-MOSベンチマークで検証する。本手法は、LiDAR-MOSのIoUの観点から、最先端手法を大幅に上回る性能を有している。本手法は、粗動から微動へのアーキテクチャの恩恵を受け、センサフレームレートでオンライン動作します。本手法の実装は、オープンソースとして https://github.com/haomo-ai/MotionSeg3D で公開されています。

要約(オリジナル)

Accurate moving object segmentation is an essential task for autonomous driving. It can provide effective information for many downstream tasks, such as collision avoidance, path planning, and static map construction. How to effectively exploit the spatial-temporal information is a critical question for 3D LiDAR moving object segmentation (LiDAR-MOS). In this work, we propose a novel deep neural network exploiting both spatial-temporal information and different representation modalities of LiDAR scans to improve LiDAR-MOS performance. Specifically, we first use a range image-based dual-branch structure to separately deal with spatial and temporal information that can be obtained from sequential LiDAR scans, and later combine them using motion-guided attention modules. We also use a point refinement module via 3D sparse convolution to fuse the information from both LiDAR range image and point cloud representations and reduce the artifacts on the borders of the objects. We verify the effectiveness of our proposed approach on the LiDAR-MOS benchmark of SemanticKITTI. Our method outperforms the state-of-the-art methods significantly in terms of LiDAR-MOS IoU. Benefiting from the devised coarse-to-fine architecture, our method operates online at sensor frame rate. The implementation of our method is available as open source at: https://github.com/haomo-ai/MotionSeg3D.

arxiv情報

著者 Jiadai Sun,Yuchao Dai,Xianjing Zhang,Jintao Xu,Rui Ai,Weihao Gu,Xieyuanli Chen
発行日 2022-07-05 17:59:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク