RGB-D-Inertial SLAM in Indoor Dynamic Environments with Long-term Large Occlusion

要約

この作品は、カメラ ビューの大部分が長期間にわたって複数の動的オブジェクトによって遮られている場合に正確な位置特定を可能にする、新しい RGB-D 慣性動的 SLAM メソッドを提示します。
ほとんどの動的 SLAM アプローチでは、動的オブジェクトが視覚入力のごく一部を占めている場合に動的オブジェクトを外れ値として削除するか、カメラ トラッキングの前にセマンティック セグメンテーションを使用して動的オブジェクトを検出します。
したがって、大きなオクルージョンを引き起こす動的オブジェクトは、事前の情報なしでは検出が困難です。
静的な背景からの残りの視覚情報も、大きなオクルージョンが長期間続く場合、ローカリゼーションをサポートするのに十分ではありません。
これらの問題を克服するために、私たちのフレームワークは、カメラを同時に追跡し、動的オブジェクトのクラスターごとの密なセグメンテーションを推定し、密な機能と疎な機能を組み合わせて静的な疎マップを維持する、堅牢な視覚慣性バンドル調整を提示します。
実験結果は、長期的な大規模なオクルージョンのシナリオで、他の最先端の方法と比較して、私たちの方法が有望なローカリゼーションとオブジェクトセグメンテーションのパフォーマンスを達成することを示しています。

要約(オリジナル)

This work presents a novel RGB-D-inertial dynamic SLAM method that can enable accurate localisation when the majority of the camera view is occluded by multiple dynamic objects over a long period of time. Most dynamic SLAM approaches either remove dynamic objects as outliers when they account for a minor proportion of the visual input, or detect dynamic objects using semantic segmentation before camera tracking. Therefore, dynamic objects that cause large occlusions are difficult to detect without prior information. The remaining visual information from the static background is also not enough to support localisation when large occlusion lasts for a long period. To overcome these problems, our framework presents a robust visual-inertial bundle adjustment that simultaneously tracks camera, estimates cluster-wise dense segmentation of dynamic objects and maintains a static sparse map by combining dense and sparse features. The experiment results demonstrate that our method achieves promising localisation and object segmentation performance compared to other state-of-the-art methods in the scenario of long-term large occlusion.

arxiv情報

著者 Ran Long,Christian Rauch,Vladimir Ivan,Tin Lun Lam,Sethu Vijayakumar
発行日 2023-03-23 14:49:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク