要約
移動物体の識別は、姿勢推定、ナビゲーション、衝突回避、静的マップ構築のための重要な情報を提供するため、自律システムにとって不可欠な機能です。
この論文では、鳥瞰図 (BEV) ドメインの外観と動きの特徴を使用して移動物体をセグメント化する、LiDAR 移動物体セグメンテーションのための高速かつ正確なフレームワークである MotionBEV を紹介します。
私たちのアプローチは、3D LiDAR スキャンを 2D 極 BEV 表現に変換して、計算効率を向上させます。
具体的には、簡略化された PointNet を使用して外観の特徴を学習し、極 BEV 座標系の垂直柱に投影された点群の連続フレームの高さの差を通じて動きの特徴を計算します。
外観と動きの特徴からの時空間情報を適応的に融合するために、外観-動き共同注意モジュール (AMCM) によってブリッジされたデュアル ブランチ ネットワークを採用しています。
私たちのアプローチは、SemanticKITTI-MOS ベンチマークで最先端のパフォーマンスを実現します。
さらに、私たちの方法の実際的な有効性を実証するために、非反復走査パターンと小さな視野を特徴とするソリッドステートLiDARによって記録されたLiDAR-MOSデータセットを提供します。
要約(オリジナル)
Identifying moving objects is an essential capability for autonomous systems, as it provides critical information for pose estimation, navigation, collision avoidance, and static map construction. In this paper, we present MotionBEV, a fast and accurate framework for LiDAR moving object segmentation, which segments moving objects with appearance and motion features in the bird’s eye view (BEV) domain. Our approach converts 3D LiDAR scans into a 2D polar BEV representation to improve computational efficiency. Specifically, we learn appearance features with a simplified PointNet and compute motion features through the height differences of consecutive frames of point clouds projected onto vertical columns in the polar BEV coordinate system. We employ a dual-branch network bridged by the Appearance-Motion Co-attention Module (AMCM) to adaptively fuse the spatio-temporal information from appearance and motion features. Our approach achieves state-of-the-art performance on the SemanticKITTI-MOS benchmark. Furthermore, to demonstrate the practical effectiveness of our method, we provide a LiDAR-MOS dataset recorded by a solid-state LiDAR, which features non-repetitive scanning patterns and a small field of view.
arxiv情報
著者 | Bo Zhou,Jiapeng Xie,Yan Pan,Jiajie Wu,Chuanzhao Lu |
発行日 | 2023-10-10 09:25:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google