Deep Homography Estimation for Visual Place Recognition

要約

視覚的場所認識 (VPR) は、ロボットの位置特定や拡張現実などの多くのアプリケーションにとって基本的なタスクです。
最近、精度と効率のトレードオフにより、階層型 VPR 手法が大きな注目を集めています。
通常、最初にグローバルな特徴を使用して候補画像を取得し、次に再ランク付けのために一致するローカルな特徴の空間的一貫性を検証します。
ただし、後者は通常、ホモグラフィーのフィッティングに RANSAC アルゴリズムに依存しますが、これは時間がかかり、微分不可能です。
これにより、既存の方法が妥協して、グローバルな特徴抽出においてのみネットワークをトレーニングすることになります。
ここでは、バックボーン ネットワークによって抽出された密な特徴マップを入力として受け取り、高速かつ学習可能な幾何学的検証のためにホモグラフィーを適合させる、トランスフォーマーベースのディープ ホモグラフィー推定 (DHE) ネットワークを提案します。
さらに、追加のホモグラフィー ラベルなしで DHE ネットワークをトレーニングするためのインライア損失の再投影誤差を設計します。これは、バックボーン ネットワークと共同でトレーニングして、ローカル マッチングにより適した特徴を抽出するのに役立ちます。
ベンチマーク データセットに対する広範な実験により、私たちの方法がいくつかの最先端の方法よりも優れたパフォーマンスを発揮できることが示されています。
また、RANSAC を使用した主流の階層型 VPR 手法よりも 1 桁以上高速です。
コードは https://github.com/Lu-Feng/DHE-VPR で公開されています。

要約(オリジナル)

Visual place recognition (VPR) is a fundamental task for many applications such as robot localization and augmented reality. Recently, the hierarchical VPR methods have received considerable attention due to the trade-off between accuracy and efficiency. They usually first use global features to retrieve the candidate images, then verify the spatial consistency of matched local features for re-ranking. However, the latter typically relies on the RANSAC algorithm for fitting homography, which is time-consuming and non-differentiable. This makes existing methods compromise to train the network only in global feature extraction. Here, we propose a transformer-based deep homography estimation (DHE) network that takes the dense feature map extracted by a backbone network as input and fits homography for fast and learnable geometric verification. Moreover, we design a re-projection error of inliers loss to train the DHE network without additional homography labels, which can also be jointly trained with the backbone network to help it extract the features that are more suitable for local matching. Extensive experiments on benchmark datasets show that our method can outperform several state-of-the-art methods. And it is more than one order of magnitude faster than the mainstream hierarchical VPR methods using RANSAC. The code is released at https://github.com/Lu-Feng/DHE-VPR.

arxiv情報

著者 Feng Lu,Shuting Dong,Lijun Zhang,Bingxi Liu,Xiangyuan Lan,Dongmei Jiang,Chun Yuan
発行日 2024-03-18 09:33:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク