要約
視覚的 (再) ローカリゼーションは、コンピューター ビジョンやロボット工学のさまざまなアプリケーションにとって重要です。
その目標は、一連のポーズ設定されたデータベース画像に基づいて、各クエリ画像の 6 自由度 (DoF) カメラのポーズを推定することです。
現在、主要なソリューションはすべて構造ベースであり、モーションから構造を使用してデータベースから 3D メトリック マップを明示的に構築するか、シーン座標回帰モデルを使用して 3D 情報を暗黙的にエンコードします。
それどころか、シーンを 3D で再構成しない視覚的な位置特定には明らかな利点があります。
データベースの前処理時間を短縮し、ストレージ要件を解放し、不完全な再構築などの影響を受けないようにすることで、導入がより便利になります。この技術レポートでは、データベースからシーンを再構築することなく、高い位置特定精度を達成できることを実証します。
これを達成する鍵は、データベースとクエリのペアに対する調整された動きの平均化によるものです。
実験の結果、私たちの視覚的位置特定提案である LazyLoc が、最先端の構造ベースの手法と比較して同等のパフォーマンスを達成することが示されています。
さらに、マルチクエリの同時ローカリゼーションやカメラ リグなどの複雑な構成を処理するために簡単に拡張できる LazyLoc の多用途性を紹介します。
要約(オリジナル)
Visual (re)localization is critical for various applications in computer vision and robotics. Its goal is to estimate the 6 degrees of freedom (DoF) camera pose for each query image, based on a set of posed database images. Currently, all leading solutions are structure-based that either explicitly construct 3D metric maps from the database with structure-from-motion, or implicitly encode the 3D information with scene coordinate regression models. On the contrary, visual localization without reconstructing the scene in 3D offers clear benefits. It makes deployment more convenient by reducing database pre-processing time, releasing storage requirements, and remaining unaffected by imperfect reconstruction, etc. In this technical report, we demonstrate that it is possible to achieve high localization accuracy without reconstructing the scene from the database. The key to achieving this owes to a tailored motion averaging over database-query pairs. Experiments show that our visual localization proposal, LazyLoc, achieves comparable performance against state-of-the-art structure-based methods. Furthermore, we showcase the versatility of LazyLoc, which can be easily extended to handle complex configurations such as multi-query co-localization and camera rigs.
arxiv情報
著者 | Siyan Dong,Shaohui Liu,Hengkai Guo,Baoquan Chen,Marc Pollefeys |
発行日 | 2023-07-19 13:40:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google