要約
グローバルな検索と再ランキングを単一のエンドツーエンド モデルに統合する、RGB-D 屋内場所認識用の新しいアルゴリズムであるクロスソース コンテキスト場所認識 (CSCPR) を紹介します。
主に RGB ドメインに焦点を当てた従来のアプローチとは異なり、CSCPR は RGB-D データを処理するように設計されています。
ノイズの多い色付き点群を処理するために Context-of-Clusters (CoC) を拡張し、再ランキング用の 2 つの新しいモジュール、Self-Context Cluster (SCC) と Cross Source Context Cluster (CSCC) を導入します。これらは、特徴表現と照合クエリを強化します。
それぞれ局所的な特徴に基づいたデータベースのペア。
また、ScanNetIPR と ARKitIPR という 2 つの新しいデータセットも紹介します。
私たちの実験では、CSCPR がこれらのデータセットの最先端モデルよりも、ScanNet-PR データセットの Recall@1 で少なくとも 36.5%、新しいデータセットの 44% で大幅に優れていることが実証されました。
コードとデータセットはリリースされます。
要約(オリジナル)
We present a new algorithm, Cross-Source-Context Place Recognition (CSCPR), for RGB-D indoor place recognition that integrates global retrieval and reranking into a single end-to-end model. Unlike prior approaches that primarily focus on the RGB domain, CSCPR is designed to handle the RGB-D data. We extend the Context-of-Clusters (CoCs) for handling noisy colorized point clouds and introduce two novel modules for reranking: the Self-Context Cluster (SCC) and Cross Source Context Cluster (CSCC), which enhance feature representation and match query-database pairs based on local features, respectively. We also present two new datasets, ScanNetIPR and ARKitIPR. Our experiments demonstrate that CSCPR significantly outperforms state-of-the-art models on these datasets by at least 36.5% in Recall@1 at ScanNet-PR dataset and 44% in new datasets. Code and datasets will be released.
arxiv情報
著者 | Jing Liang,Zhuo Deng,Zheming Zhou,Min Sun,Omid Ghasemalizadeh,Cheng-Hao Kuo,Arnie Sen,Dinesh Manocha |
発行日 | 2024-07-24 17:50:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google