Steerers: A framework for rotation equivariant keypoint descriptors

要約

3次元再構成には、大きな視点の変化に対して識別可能で、かつ一致可能な画像キーポイント記述が不可欠である。しかし、学習された記述子によって出力される記述は、一般的にカメラの回転に対してロバストではありません。例えば、データ増強によってよりロバストにすることができますが、これは直立画像での性能を低下させます。もう1つのアプローチはテスト時間の増大であるが、これは実行時間の大幅な増大をもたらす。その代わりに、入力画像の回転を符号化する記述空間の線形変換を学習する。この線形変換により、あたかも画像が回転しているかのように記述を変換することができるため、この線形変換をステアラーと呼ぶ。表現理論から、回転群に対して可能なすべてのステアラを知ることができます。ステアラは、(A)固定記述子を与えて最適化する、(B)記述子と共同で最適化する、または(C)固定ステアラを与えて記述子を最適化することができます。これら3つの設定全てにおいて実験を行い、回転不変画像マッチングベンチマークAIMSとRoto-360において最先端の結果を得る。コードとモデルの重みはgithub.com/georg-bn/rotation-steerersで公開しています。

要約(オリジナル)

Image keypoint descriptions that are discriminative and matchable over large changes in viewpoint are vital for 3D reconstruction. However, descriptions output by learned descriptors are typically not robust to camera rotation. While they can be made more robust by, e.g., data augmentation, this degrades performance on upright images. Another approach is test-time augmentation, which incurs a significant increase in runtime. We instead learn a linear transform in description space that encodes rotations of the input image. We call this linear transform a steerer since it allows us to transform the descriptions as if the image was rotated. From representation theory we know all possible steerers for the rotation group. Steerers can be optimized (A) given a fixed descriptor, (B) jointly with a descriptor or (C) we can optimize a descriptor given a fixed steerer. We perform experiments in all of these three settings and obtain state-of-the-art results on the rotation invariant image matching benchmarks AIMS and Roto-360. We publish code and model weights at github.com/georg-bn/rotation-steerers.

arxiv情報

著者 Georg Bökman,Johan Edstedt,Michael Felsberg,Fredrik Kahl
発行日 2023-12-04 18:59:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク