要約
未知の環境を移動する移動ロボットは、マッピング、位置特定、計画のために周囲の動的オブジェクトを常に認識する必要があります。
現在の観測で動いている物体について推論すると同時に、安全性を確保するために静的世界の内部モデルを更新することが重要です。
この論文では、現在の 3D LiDAR スキャンと環境のローカル マップにおける移動物体を共同推定する問題に取り組みます。
スパース 4D 畳み込みを使用して、スキャンおよびローカル マップから時空間特徴を抽出し、すべての 3D ポイントを移動ポイントと非移動ポイントにセグメント化します。
さらに、ベイズ フィルターを使用して、これらの予測を動的環境の確率的表現に融合することを提案します。
この体積信念モデルは、環境のどの部分が移動する物体によって占有される可能性があるかをモデル化します。
私たちの実験では、私たちのアプローチが既存の移動物体セグメンテーションのベースラインを上回っており、さまざまな種類の LiDAR センサーにも一般化できることが示されています。
私たちは、ボリューム信念融合により、移動オブジェクトのセグメンテーションの精度と再現率が向上し、オンライン マッピング シナリオで以前に見逃していた移動オブジェクトを取得することもできることを実証します。
要約(オリジナル)
Mobile robots that navigate in unknown environments need to be constantly aware of the dynamic objects in their surroundings for mapping, localization, and planning. It is key to reason about moving objects in the current observation and at the same time to also update the internal model of the static world to ensure safety. In this paper, we address the problem of jointly estimating moving objects in the current 3D LiDAR scan and a local map of the environment. We use sparse 4D convolutions to extract spatio-temporal features from scan and local map and segment all 3D points into moving and non-moving ones. Additionally, we propose to fuse these predictions in a probabilistic representation of the dynamic environment using a Bayes filter. This volumetric belief models, which parts of the environment can be occupied by moving objects. Our experiments show that our approach outperforms existing moving object segmentation baselines and even generalizes to different types of LiDAR sensors. We demonstrate that our volumetric belief fusion can increase the precision and recall of moving object segmentation and even retrieve previously missed moving objects in an online mapping scenario.
arxiv情報
著者 | Benedikt Mersch,Tiziano Guadagnino,Xieyuanli Chen,Ignacio Vizzo,Jens Behley,Cyrill Stachniss |
発行日 | 2023-07-17 08:21:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google