要約
以前の研究である PoCo を拡張し、グローバルな検索と再ランキングをエンドツーエンドのモデルに統合し、一貫性を保つ RGB-D 屋内場所認識用の新しいアルゴリズムであるクロスソースコンテキスト場所認識 (CSCPR) を紹介します。
機能処理に Context-of-Clusters (CoC) を使用する方法。
場所認識の再ランキングのために主に RGB ドメインに焦点を当てた従来のアプローチとは異なり、CSCPR は RGB-D データを処理するように設計されています。
CoC を適用してクロスソースおよびクロススケールの RGB-D 点群を処理し、再ランキング用の 2 つの新しいモジュール、セルフ コンテキスト クラスター (SCC) とクロス ソース コンテキスト クラスター (CSCC) を導入します。これらは、特徴の表現と一致を強化します。
それぞれローカル特徴に基づくクエリとデータベースのペア。
また、ScanNetIPR と ARKitIPR という 2 つの新しいデータセットもリリースします。
私たちの実験では、CSCPR がこれらのデータセットの最先端モデルよりも、ScanNet-PR データセットの Recall@1 で少なくとも 29.27%、新しいデータセットの 43.24% と大幅に優れていることが実証されました。
コードとデータセットはリリースされます。
要約(オリジナル)
We extend our previous work, PoCo, and present a new algorithm, Cross-Source-Context Place Recognition (CSCPR), for RGB-D indoor place recognition that integrates global retrieval and reranking into an end-to-end model and keeps the consistency of using Context-of-Clusters (CoCs) for feature processing. Unlike prior approaches that primarily focus on the RGB domain for place recognition reranking, CSCPR is designed to handle the RGB-D data. We apply the CoCs to handle cross-sourced and cross-scaled RGB-D point clouds and introduce two novel modules for reranking: the Self-Context Cluster (SCC) and the Cross Source Context Cluster (CSCC), which enhance feature representation and match query-database pairs based on local features, respectively. We also release two new datasets, ScanNetIPR and ARKitIPR. Our experiments demonstrate that CSCPR significantly outperforms state-of-the-art models on these datasets by at least 29.27% in Recall@1 on the ScanNet-PR dataset and 43.24% in the new datasets. Code and datasets will be released.
arxiv情報
著者 | Jing Liang,Zhuo Deng,Zheming Zhou,Min Sun,Omid Ghasemalizadeh,Cheng-Hao Kuo,Arnie Sen,Dinesh Manocha |
発行日 | 2024-12-26 07:48:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google