Visual-Inertial Multi-Instance Dynamic SLAM with Object-level Relocalisation

要約

本論文では、緊密に結合された視覚-慣性物体レベルのマルチインスタンスダイナミックSLAMシステムを紹介する。非常に動的なシーンにおいても、カメラのポーズ、速度、IMUのバイアスをロバストに最適化し、環境の高密度3D再構成物体レベルマップを構築することができる。本システムは、ロバストなセンサーと物体追跡により、関連する色、深度、意味、前景の物体確率を各物体モデルに段階的に融合することで、任意の物体の形状、その意味、運動を頑健に追跡・再構成することができる。さらに、本システムは、物体を見失ったり、カメラの視野外に移動したりした場合でも、再観測することでその姿勢を確実に復元することができる。我々は、実世界のデータシーケンスにおいて定量的かつ定性的にテストすることで、本手法の頑健性と精度を実証する。

要約(オリジナル)

In this paper, we present a tightly-coupled visual-inertial object-level multi-instance dynamic SLAM system. Even in extremely dynamic scenes, it can robustly optimise for the camera pose, velocity, IMU biases and build a dense 3D reconstruction object-level map of the environment. Our system can robustly track and reconstruct the geometries of arbitrary objects, their semantics and motion by incrementally fusing associated colour, depth, semantic, and foreground object probabilities into each object model thanks to its robust sensor and object tracking. In addition, when an object is lost or moved outside the camera field of view, our system can reliably recover its pose upon re-observation. We demonstrate the robustness and accuracy of our method by quantitatively and qualitatively testing it in real-world data sequences.

arxiv情報

著者 Yifei Ren,Binbin Xu,Christopher L. Choi,Stefan Leutenegger
発行日 2022-08-08 17:13:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク