要約
2 つの画像間の相対的な姿勢 (スケールを含む回転と平行移動) を直接推定するための単純なベースラインを提示します。
ディープ メソッドは最近大きな進歩を遂げていますが、多くの場合、複雑な、または多段階のアーキテクチャが必要です。
ビジョン トランスフォーマー (ViT) にいくつかの変更を適用して、その計算をエイトポイント アルゴリズムに近づけることができることを示します。
この誘導バイアスにより、単純な方法が複数の設定で競争できるようになり、多くの場合、限られたデータ体制で強力なパフォーマンスの向上により、最先端の技術を大幅に改善します。
要約(オリジナル)
We present a simple baseline for directly estimating the relative pose (rotation and translation, including scale) between two images. Deep methods have recently shown strong progress but often require complex or multi-stage architectures. We show that a handful of modifications can be applied to a Vision Transformer (ViT) to bring its computations close to the Eight-Point Algorithm. This inductive bias enables a simple method to be competitive in multiple settings, often substantially improving over the state of the art with strong performance gains in limited data regimes.
arxiv情報
著者 | Chris Rockwell,Justin Johnson,David F. Fouhey |
発行日 | 2022-08-18 17:59:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google