要約
私たちは、Urban Search and Rescue (USAR) シナリオにおけるモバイル ロボット向けのリアルタイム動的 LiDAR オドメトリ パイプラインを提案します。
動的な物体検出に対する既存のアプローチは、多くの場合、事前学習された学習済みネットワークまたは計算コストのかかる体積マップに依存しています。
計算能力が限られたロボットの効率を高めるために、オドメトリと検出モジュールの間でデータを再利用します。
距離画像セグメンテーション技術と新しい残差ベースのヒューリスティックを利用することで、私たちの方法は、点群マップに統合する前に動的オブジェクトと静的オブジェクトを区別します。
このアプローチは、多数の動的オブジェクトが存在する環境において、堅牢なオブジェクト追跡とマップ精度の向上を実証します。
走っている人間などの非常に非剛体な物体であっても、事前に点群をダウンサンプリングすることなく、したがって情報を損失することなく、点レベルで正確に検出されます。
シミュレートされたデータと実世界のデータを評価することで、その計算効率が検証されます。
最先端の容積測定法と比較して、当社のアプローチは、わずかな処理時間で同等の検出パフォーマンスを示し、動的な物体の検出と追跡のためのオドメトリ モジュールに追加する時間はわずか 14 ミリ秒です。
この実装と新しい実世界のデータセットは、さらなる研究のためにオープンソースとして利用できます。
要約(オリジナル)
We propose a real-time dynamic LiDAR odometry pipeline for mobile robots in Urban Search and Rescue (USAR) scenarios. Existing approaches to dynamic object detection often rely on pretrained learned networks or computationally expensive volumetric maps. To enhance efficiency on computationally limited robots, we reuse data between the odometry and detection module. Utilizing a range image segmentation technique and a novel residual-based heuristic, our method distinguishes dynamic from static objects before integrating them into the point cloud map. The approach demonstrates robust object tracking and improved map accuracy in environments with numerous dynamic objects. Even highly non-rigid objects, such as running humans, are accurately detected at point level without prior downsampling of the point cloud and hence, without loss of information. Evaluation on simulated and real-world data validates its computational efficiency. Compared to a state-of-the-art volumetric method, our approach shows comparable detection performance at a fraction of the processing time, adding only 14 ms to the odometry module for dynamic object detection and tracking. The implementation and a new real-world dataset are available as open-source for further research.
arxiv情報
著者 | Jonathan Lichtenfeld,Kevin Daun,Oskar von Stryk |
発行日 | 2024-11-27 15:32:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google