要約
深海や地球外の地形などの極限環境で取得された一連の画像を前提として、カメラのポーズを確実に推定するための新しい方法を提案します。
これらの困難な条件下で取得されたデータは、テクスチャのない表面、画像の劣化、および反復的で非常にあいまいな構造の存在によって破損します。
経験的分析で確認されたように、これらのシナリオでは、単純に展開すると、最先端の方法が失敗する可能性があります。
この論文では、これらの極端な状況でカメラの再ローカリゼーションを機能させることを試みます。
この目的のために、(i)時間情報を活用する階層的ローカリゼーションシステム、および(ii)堅牢性と精度を高めるための新しい環境認識画像強調方法を提案します。
私たちの広範な実験結果は、自律型水中ビークルの位置特定と火星のような砂漠での惑星探査車の位置特定という2つの極端な設定の下で私たちの方法を支持する優れた性能を示しています。
さらに、私たちの方法は、わずか20%のトレーニングデータを使用して、屋内ベンチマーク(7シーンデータセット)の最先端の方法と同等のパフォーマンスを実現します。
要約(オリジナル)
We propose a novel method to reliably estimate the pose of a camera given a sequence of images acquired in extreme environments such as deep seas or extraterrestrial terrains. Data acquired under these challenging conditions are corrupted by textureless surfaces, image degradation, and presence of repetitive and highly ambiguous structures. When naively deployed, the state-of-the-art methods can fail in those scenarios as confirmed by our empirical analysis. In this paper, we attempt to make camera relocalization work in these extreme situations. To this end, we propose: (i) a hierarchical localization system, where we leverage temporal information and (ii) a novel environment-aware image enhancement method to boost the robustness and accuracy. Our extensive experimental results demonstrate superior performance in favor of our method under two extreme settings: localizing an autonomous underwater vehicle and localizing a planetary rover in a Mars-like desert. In addition, our method achieves comparable performance with state-of-the-art methods on the indoor benchmark (7-Scenes dataset) using only 20% training data.
arxiv情報
著者 | Yang Zheng,Tolga Birdal,Fei Xia,Yanchao Yang,Yueqi Duan,Leonidas J. Guibas |
発行日 | 2022-07-13 16:40:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google