RadarMOSEVE: A Spatial-Temporal Transformer Network for Radar-Only Moving Object Segmentation and Ego-Velocity Estimation

要約

移動物体セグメンテーション (MOS) と自我速度推定 (EVE) は、モバイル システムが完全な自律性を実現するために不可欠な機能です。
LiDAR センサーを使用して MOSEVE を実現しようとするアプローチがいくつかあります。
ただし、LiDAR センサーは通常高価であり、悪天候の影響を受けやすいです。
代わりに、ミリ波レーダー (MWR) は、その費用対効果と悪天候に対する耐性により、ロボット工学や自動運転の実際の用途で人気を集めています。
それにもかかわらず、公的に利用可能な MOSEVE データセットとレーダー データを使用したアプローチは限られています。
一部の既存の手法は、LiDAR ベースのアプローチから点畳み込みネットワークを採用しており、特定のアーティファクトやレーダー測定の貴重な動径速度情報を無視しており、次善のパフォーマンスにつながります。
この論文では、スパース性とノイズの問題に効果的に対処し、私たちが考案したレーダーセルフアテンションおよびクロスアテンションメカニズムを使用してレーダーポイントの半径方向速度測定を活用する新しい変圧器ネットワークを提案します。
それに基づいて、私たちの方法はロボットの正確なEVEを達成し、同時にレーダーデータのみを使用してMOSを実行します。
私たちの手法の MOSEVE パフォーマンスを徹底的に評価するために、公開されているデルフト展望 (VoD) データセット内のレーダー ポイントに注釈を付け、さらにさまざまな環境で新しいレーダー データセットを構築しました。
実験結果は、既存の最先端の方法に対する私たちのアプローチの優位性を示しています。
コードは https://github.com/ORCA-Uboat/RadarMOSEVE で入手できます。

要約(オリジナル)

Moving object segmentation (MOS) and Ego velocity estimation (EVE) are vital capabilities for mobile systems to achieve full autonomy. Several approaches have attempted to achieve MOSEVE using a LiDAR sensor. However, LiDAR sensors are typically expensive and susceptible to adverse weather conditions. Instead, millimeter-wave radar (MWR) has gained popularity in robotics and autonomous driving for real applications due to its cost-effectiveness and resilience to bad weather. Nonetheless, publicly available MOSEVE datasets and approaches using radar data are limited. Some existing methods adopt point convolutional networks from LiDAR-based approaches, ignoring the specific artifacts and the valuable radial velocity information of radar measurements, leading to suboptimal performance. In this paper, we propose a novel transformer network that effectively addresses the sparsity and noise issues and leverages the radial velocity measurements of radar points using our devised radar self- and cross-attention mechanisms. Based on that, our method achieves accurate EVE of the robot and performs MOS using only radar data simultaneously. To thoroughly evaluate the MOSEVE performance of our method, we annotated the radar points in the public View-of-Delft (VoD) dataset and additionally constructed a new radar dataset in various environments. The experimental results demonstrate the superiority of our approach over existing state-of-the-art methods. The code is available at https://github.com/ORCA-Uboat/RadarMOSEVE.

arxiv情報

著者 Changsong Pang,Xieyuanli Chen,Yimin Liu,Huimin Lu,Yuwei Cheng
発行日 2024-02-22 08:48:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク