Matching with AffNet based rectifications

要約

ビュー合成による大きな視点変更の下での2ビューマッチングの問題を検討します。
ビュー合成のオーバーヘッドを最小限に抑える 2 つの新しい方法を提案します。
DenseAffNet という名前の最初のものは、AffNet からの密なアフィン形状推定を使用します。これにより、画像を分割し、各分割を 1 つのアフィン マップだけで修正できます。
2 つ目は、DepthAffNet という名前で、深度マップとアフィン形状推定からの情報を組み合わせて、さまざまなイメージ パーティションに対してさまざまな調整アフィン マップのセットを生成します。
DenseAffNet は最先端のものよりも高速で、一般的なシーンでより正確です。
DepthAffNet は、大きな平面を含むシーンの最先端技術と同等です。
評価は、EVD データセット、Strong ViewPoint Changes データセット、IMC Phototourism データセットの 3 つの公開データセットで実行されます。

要約(オリジナル)

We consider the problem of two-view matching under significant viewpoint changes with view synthesis. We propose two novel methods, minimizing the view synthesis overhead. The first one, named DenseAffNet, uses dense affine shapes estimates from AffNet, which allows it to partition the image, rectifying each partition with just a single affine map. The second one, named DepthAffNet, combines information from depth maps and affine shapes estimates to produce different sets of rectifying affine maps for different image partitions. DenseAffNet is faster than the state-of-the-art and more accurate on generic scenes. DepthAffNet is on par with the state of the art on scenes containing large planes. The evaluation is performed on 3 public datasets – EVD Dataset, Strong ViewPoint Changes Dataset and IMC Phototourism Dataset.

arxiv情報

著者 Václav Vávra,Dmytro Mishkin,Jiří Matas
発行日 2022-07-29 13:06:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク