ADUGS-VINS: Generalized Visual-Inertial Odometry for Robust Navigation in Highly Dynamic and Complex Environments

要約

視覚慣性オドメトリ(VIO)は、ロボット、ドローン、自律走行車など様々な分野で広く利用されている。しかし、実世界のシーンには動的な物体が存在することが多く、VIOの精度が損なわれる。これらのオブジェクトの多様性と部分的なオクルージョンは、既存の動的VIO手法にとって困難な課題となっている。この課題に対処するために、我々はADUGS-VINSを導入する。ADUGS-VINSは、強化されたSORTアルゴリズムとプロンプト可能な基礎モデルをVIOに統合することで、多様な動的物体と頻繁なオクルージョンのある環境における姿勢推定精度を向上させる。様々なシーンを表現する複数の公開データセットと、多様な動的物体を含む実環境シナリオを用いて、提案手法を評価した。実験結果は、提案手法が複数のシナリオにおいて印象的な性能を発揮し、他の最先端手法を凌駕することを示している。このことは、多様な動的環境における顕著な汎用性と適応性を浮き彫りにし、実用的なアプリケーションにおいて様々な動的オブジェクトを扱うことができる可能性を示している。

要約(オリジナル)

Visual-inertial odometry (VIO) is widely used in various fields, such as robots, drones, and autonomous vehicles. However, real-world scenes often feature dynamic objects, compromising the accuracy of VIO. The diversity and partial occlusion of these objects present a tough challenge for existing dynamic VIO methods. To tackle this challenge, we introduce ADUGS-VINS, which integrates an enhanced SORT algorithm along with a promptable foundation model into VIO, thereby improving pose estimation accuracy in environments with diverse dynamic objects and frequent occlusions. We evaluated our proposed method using multiple public datasets representing various scenes, as well as in a real-world scenario involving diverse dynamic objects. The experimental results demonstrate that our proposed method performs impressively in multiple scenarios, outperforming other state-of-the-art methods. This highlights its remarkable generalization and adaptability in diverse dynamic environments, showcasing its potential to handle various dynamic objects in practical applications.

arxiv情報

著者 Rui Zhou,Jingbin Liu,Junbin Xie,Jianyu Zhang,Yingze Hu,Jiele Zhao
発行日 2025-03-03 07:18:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク