BEINGS: Bayesian Embodied Image-goal Navigation with Gaussian Splatting

要約

画像目標ナビゲーションを使用すると、視覚的な手がかりを使用して、ロボットがターゲット画像がキャプチャされた場所に到達できるようになります。
しかし、現在の方法は、データと計算コストのかかる学習ベースのアプローチに大きく依存しているか、探索戦略が不十分なために複雑な環境では効率が不足しています。
これらの制限に対処するために、モデル予測制御フレームワーク内の最適制御問題として ImageNav を定式化する新しい方法である、ガウス スプラッティングを使用したベイジアン具体化画像ゴール ナビゲーションを提案します。
BEINGS は、将来の観測を予測する前のシーンとして 3D ガウス スプラッティングを活用し、ロボットの感覚体験に基づいた効率的なリアルタイムのナビゲーション決定を可能にします。
ベイズ更新を統合することにより、私たちの方法は、事前の広範な経験やデータを必要とせずに、ロボットの戦略を動的に洗練させます。
私たちのアルゴリズムは広範なシミュレーションと物理実験を通じて検証され、視覚的に複雑なシナリオにおける具体化されたロボット システムの可能性を示しています。

要約(オリジナル)

Image-goal navigation enables a robot to reach the location where a target image was captured, using visual cues for guidance. However, current methods either rely heavily on data and computationally expensive learning-based approaches or lack efficiency in complex environments due to insufficient exploration strategies. To address these limitations, we propose Bayesian Embodied Image-goal Navigation Using Gaussian Splatting, a novel method that formulates ImageNav as an optimal control problem within a model predictive control framework. BEINGS leverages 3D Gaussian Splatting as a scene prior to predict future observations, enabling efficient, real-time navigation decisions grounded in the robot’s sensory experiences. By integrating Bayesian updates, our method dynamically refines the robot’s strategy without requiring extensive prior experience or data. Our algorithm is validated through extensive simulations and physical experiments, showcasing its potential for embodied robot systems in visually complex scenarios.

arxiv情報

著者 Wugang Meng,Tianfu Wu,Huan Yin,Fumin Zhang
発行日 2024-09-16 12:07:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク