PoseINN: Realtime Visual-based Pose Regression and Localization with Invertible Neural Networks

要約

カメラからエゴポーズを推定することは、移動ロボット工学から拡張現実感まで幅広い応用が可能なロボット工学における重要な問題である。SOTAモデルの精度は向上しているが、計算コストが高いため、扱いにくい。本論文では、与えられたシーンに対して、画像の潜在空間とポーズの間のマッピングを見つけるために、可逆ニューラルネットワーク(INN)を使用することによって問題を解決することを提案する。我々のモデルは、SOTAと同様の性能を達成しつつ、より高速に学習し、低解像度の合成データのオフラインレンダリングのみを必要とする。また、正規化フローを用いることで、提案手法は出力の不確実性推定も行う。また、このモデルを移動ロボットに搭載することで、本手法の効率性を実証した。

要約(オリジナル)

Estimating ego-pose from cameras is an important problem in robotics with applications ranging from mobile robotics to augmented reality. While SOTA models are becoming increasingly accurate, they can still be unwieldy due to high computational costs. In this paper, we propose to solve the problem by using invertible neural networks (INN) to find the mapping between the latent space of images and poses for a given scene. Our model achieves similar performance to the SOTA while being faster to train and only requiring offline rendering of low-resolution synthetic data. By using normalizing flows, the proposed method also provides uncertainty estimation for the output. We also demonstrated the efficiency of this method by deploying the model on a mobile robot.

arxiv情報

著者 Zirui Zang,Ahmad Amine,Rahul Mangharam
発行日 2024-05-07 14:56:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク