要約
視覚的定位は、自律型ロボットが自分の姿勢を見失ったときに、現在の観測データと過去の観測データを照合することで再定位することを可能にします。しかし、曖昧なシーンでは、繰り返される構造が多くの異なるカメラポーズから見られるため、単一の最適なポーズ仮説を生成するだけでは不十分であり、このようなシステムには課題がある。本研究では、与えられた画像に対して、そのカメラポーズの任意形状の事後分布を予測する確率的枠組みを提案する。これは変分推論を用いたカメラポーズ回帰の新しい定式化によって行われ、予測された分布からのサンプリングが可能となる。本手法は、曖昧なシーンにおけるローカライゼーションにおいて、既存の手法を凌駕する性能を発揮します。コードとデータは、https://github.com/efreidun/vapor で公開される予定です。
要約(オリジナル)
Visual localization allows autonomous robots to relocalize when losing track of their pose by matching their current observation with past ones. However, ambiguous scenes pose a challenge for such systems, as repetitive structures can be viewed from many distinct, equally likely camera poses, which means it is not sufficient to produce a single best pose hypothesis. In this work, we propose a probabilistic framework that for a given image predicts the arbitrarily shaped posterior distribution of its camera pose. We do this via a novel formulation of camera pose regression using variational inference, which allows sampling from the predicted distribution. Our method outperforms existing methods on localization in ambiguous scenes. Code and data will be released at https://github.com/efreidun/vapor.
arxiv情報
著者 | Fereidoon Zangeneh,Leonard Bruns,Amit Dekel,Alessandro Pieropan,Patric Jensfelt |
発行日 | 2023-01-05 14:46:54+00:00 |
arxivサイト | arxiv_id(pdf) |