CSCPR: Cross-Source-Context Indoor RGB-D Place Recognition

要約

グローバルな検索と再ランキングを単一のエンドツーエンド モデルに統合する、RGB-D 屋内場所認識用の新しいアルゴリズムであるクロスソース コンテキスト場所認識 (CSCPR) を紹介します。
主に RGB ドメインに焦点を当てた従来のアプローチとは異なり、CSCPR は RGB-D データを処理するように設計されています。
ノイズの多い色付き点群を処理するために Context-of-Clusters (CoC) を拡張し、再ランキング用の 2 つの新しいモジュール、Self-Context Cluster (SCC) と Cross Source Context Cluster (CSCC) を導入します。これらは、特徴表現と照合クエリを強化します。
それぞれ局所的な特徴に基づいたデータベースのペア。
また、ScanNetIPR と ARKitIPR という 2 つの新しいデータセットも紹介します。
私たちの実験では、CSCPR がこれらのデータセットの最先端モデルよりも、ScanNet-PR データセットの Recall@1 で少なくとも 36.5%、新しいデータセットの 44% で大幅に優れていることが実証されました。
コードとデータセットはリリースされます。

要約(オリジナル)

We present a new algorithm, Cross-Source-Context Place Recognition (CSCPR), for RGB-D indoor place recognition that integrates global retrieval and reranking into a single end-to-end model. Unlike prior approaches that primarily focus on the RGB domain, CSCPR is designed to handle the RGB-D data. We extend the Context-of-Clusters (CoCs) for handling noisy colorized point clouds and introduce two novel modules for reranking: the Self-Context Cluster (SCC) and Cross Source Context Cluster (CSCC), which enhance feature representation and match query-database pairs based on local features, respectively. We also present two new datasets, ScanNetIPR and ARKitIPR. Our experiments demonstrate that CSCPR significantly outperforms state-of-the-art models on these datasets by at least 36.5% in Recall@1 at ScanNet-PR dataset and 44% in new datasets. Code and datasets will be released.

arxiv情報

著者 Jing Liang,Zhuo Deng,Zheming Zhou,Min Sun,Omid Ghasemalizadeh,Cheng-Hao Kuo,Arnie Sen,Dinesh Manocha
発行日 2024-07-24 17:50:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク