Graph Context Transformation Learning for Progressive Correspondence Pruning

要約

既存の通信枝刈り手法のほとんどは、コンテキスト情報を可能な限り収集することだけに重点を置き、そのような情報を利用する効果的な方法を無視しています。
このジレンマに取り組むために、本論文では、プログレッシブ対応枝刈りのためのコンセンサスガイダンスを実行するためにコンテキスト情報を強化するグラフコンテキスト変換ネットワーク (GCT-Net) を提案します。
具体的には、まずグラフ ネットワークを生成し、それをマルチブランチ グラフ コンテキストに変換するグラフ コンテキスト エンハンス トランスフォーマーを設計します。
さらに、自己注意と相互注意を使用して各グラフ コンテキストの特性を拡大し、共有された重要な情報だけでなく固有の情報も強調します。
再調整されたグラフ コンテキストをグローバル ドメインにさらに適用するために、グラフ コンテキスト ガイダンス トランスフォーマーを提案します。
このモジュールは、信頼度に基づくサンプリング戦略を採用し、スクリーニングされた頂点と残りの頂点の間のグローバルなコンセンサスを検索することによって正確な分類を導くために、信頼性の高い頂点を一時的にスクリーニングします。
外れ値の除去と相対姿勢推定に関する広範な実験結果は、屋外および屋内のデータセットにわたる最先端の方法と比較して GCT-Net の優れたパフォーマンスを明確に示しています。
ソース コードは https://github.com/guabaoxiao/GCT-Net/ から入手できます。

要約(オリジナル)

Most of existing correspondence pruning methods only concentrate on gathering the context information as much as possible while neglecting effective ways to utilize such information. In order to tackle this dilemma, in this paper we propose Graph Context Transformation Network (GCT-Net) enhancing context information to conduct consensus guidance for progressive correspondence pruning. Specifically, we design the Graph Context Enhance Transformer which first generates the graph network and then transforms it into multi-branch graph contexts. Moreover, it employs self-attention and cross-attention to magnify characteristics of each graph context for emphasizing the unique as well as shared essential information. To further apply the recalibrated graph contexts to the global domain, we propose the Graph Context Guidance Transformer. This module adopts a confident-based sampling strategy to temporarily screen high-confidence vertices for guiding accurate classification by searching global consensus between screened vertices and remaining ones. The extensive experimental results on outlier removal and relative pose estimation clearly demonstrate the superior performance of GCT-Net compared to state-of-the-art methods across outdoor and indoor datasets. The source code will be available at: https://github.com/guobaoxiao/GCT-Net/.

arxiv情報

著者 Junwen Guo,Guobao Xiao,Shiping Wang,Jun Yu
発行日 2023-12-26 09:43:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク