RaTrack: Moving Object Detection and Tracking with 4D Radar Point Cloud

要約

モバイルの自律性は、動的な環境を正確に認識することに依存しています。
したがって、3D 世界で移動オブジェクトを確実に追跡することは、軌道予測、障害物回避、経路計画などのアプリケーションにとって極めて重要な役割を果たします。
現在の方法のほとんどは、複数物体追跡 (MOT) に LiDAR またはカメラを利用していますが、4D 画像レーダーの機能はほとんど解明されていません。
レーダー ノイズと 4D レーダー データの点の散在性によってもたらされる課題を認識し、レーダー ベースの追跡に合わせて調整された革新的なソリューションである RaTrack を紹介します。
特定のオブジェクト タイプや 3D 境界ボックスへの一般的な依存を回避するため、私たちの方法は動き推定モジュールによって強化された動きのセグメンテーションとクラスタリングに焦点を当てています。
デルフトビュー データセットで評価された RaTrack は、最先端のパフォーマンスを大幅に上回る、移動オブジェクトの優れた追跡精度を示しています。
コードとモデルは https://github.com/LJacksonPan/RaTrack でリリースされています。

要約(オリジナル)

Mobile autonomy relies on the precise perception of dynamic environments. Robustly tracking moving objects in 3D world thus plays a pivotal role for applications like trajectory prediction, obstacle avoidance, and path planning. While most current methods utilize LiDARs or cameras for Multiple Object Tracking (MOT), the capabilities of 4D imaging radars remain largely unexplored. Recognizing the challenges posed by radar noise and point sparsity in 4D radar data, we introduce RaTrack, an innovative solution tailored for radar-based tracking. Bypassing the typical reliance on specific object types and 3D bounding boxes, our method focuses on motion segmentation and clustering, enriched by a motion estimation module. Evaluated on the View-of-Delft dataset, RaTrack showcases superior tracking precision of moving objects, largely surpassing the performance of the state of the art. We release our code and model at https://github.com/LJacksonPan/RaTrack.

arxiv情報

著者 Zhijun Pan,Fangqiang Ding,Hantao Zhong,Chris Xiaoxuan Lu
発行日 2024-03-06 13:32:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO パーマリンク