EC-SfM: Efficient Covisibility-based Structure-from-Motion for Both Sequential and Unordered Images

要約

Structure-from-Motion は、コンピューター ビジョンの基本的な問題である、画像収集を通じてシーン構造を取得するために使用されるテクノロジです。
順序付けされていないインターネット画像の場合、画像の重なりに関する事前知識がないため、SfM は非常に遅くなります。
連続画像の場合、隣接するフレーム間の大きなオーバーラップを認識しているため、SfM はさまざまな高速化戦略を採用できますが、これらは連続データにのみ適用できます。
再構成効率をさらに改善し、これら 2 種類のデータ間の戦略のギャップを解消するために、このペーパーでは、効率的な共可視性ベースの増分 SfM を提示します。
以前の方法とは異なり、共可視性と登録依存性を利用して、あらゆる種類のデータに適した画像接続を記述します。
この一般的な画像接続に基づいて、連続画像、順序付けられていない画像、およびこれら 2 つの混合を効率的に再構築するための統一されたフレームワークを提案します。
順序付けされていない画像と混合データの実験により、提案された方法の有効性が検証されます。これは、特徴マッチングに関する最新技術よりも 3 倍高速であり、精度を犠牲にすることなく再構成で桁違いに高速です。
ソース コードは、https://github.com/openxrlab/xrsfm で公開されています。

要約(オリジナル)

Structure-from-Motion is a technology used to obtain scene structure through image collection, which is a fundamental problem in computer vision. For unordered Internet images, SfM is very slow due to the lack of prior knowledge about image overlap. For sequential images, knowing the large overlap between adjacent frames, SfM can adopt a variety of acceleration strategies, which are only applicable to sequential data. To further improve the reconstruction efficiency and break the gap of strategies between these two kinds of data, this paper presents an efficient covisibility-based incremental SfM. Different from previous methods, we exploit covisibility and registration dependency to describe the image connection which is suitable to any kind of data. Based on this general image connection, we propose a unified framework to efficiently reconstruct sequential images, unordered images, and the mixture of these two. Experiments on the unordered images and mixed data verify the effectiveness of the proposed method, which is three times faster than the state of the art on feature matching, and an order of magnitude faster on reconstruction without sacrificing the accuracy. The source code is publicly available at https://github.com/openxrlab/xrsfm

arxiv情報

著者 Zhichao Ye,Chong Bao,Xin Zhou,Haomin Liu,Hujun Bao,Guofeng Zhang
発行日 2023-02-21 09:18:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク