要約
Visual Place Recognition (VPR) はロボットの位置特定に不可欠です。
これまでのところ、最もパフォーマンスの高い VPR アプローチは、環境とタスクに固有のものです。構造化された環境 (主に都市部の運転) では強力なパフォーマンスを示しますが、構造化されていない環境ではパフォーマンスが大幅に低下し、ほとんどのアプローチは堅牢な現実世界の展開に対して脆弱になります。
この研究では、VPR に対する普遍的なソリューションを開発します。これは、再トレーニングや微調整を必要とせずに、広範囲の構造化環境および非構造化環境 (都市、屋外、屋内、空中、水中、地下環境) で機能する手法です。
。
我々は、VPR 固有のトレーニングを行わずに既製の自己教師ありモデルから派生した汎用の特徴表現が、そのような汎用 VPR ソリューションを構築するための適切な基盤であることを実証します。
これらの派生特徴と教師なし特徴集約を組み合わせることで、当社のメソッド スイート AnyLoc は、既存のアプローチよりも最大 4 倍の大幅に高いパフォーマンスを達成できます。
さらに、これらの機能のセマンティック プロパティを特徴付け、同様の環境からのデータセットをカプセル化する固有のドメインを明らかにすることで、パフォーマンスが 6% 向上しました。
当社の詳細な実験と分析は、いつでも、どこでも、あらゆるビューにわたって導入できる VPR ソリューションを構築するための基礎を築きます。
読者には、プロジェクト ページとインタラクティブなデモ (https://anyloc.github.io/) を探索することをお勧めします。
要約(オリジナル)
Visual Place Recognition (VPR) is vital for robot localization. To date, the most performant VPR approaches are environment- and task-specific: while they exhibit strong performance in structured environments (predominantly urban driving), their performance degrades severely in unstructured environments, rendering most approaches brittle to robust real-world deployment. In this work, we develop a universal solution to VPR — a technique that works across a broad range of structured and unstructured environments (urban, outdoors, indoors, aerial, underwater, and subterranean environments) without any re-training or fine-tuning. We demonstrate that general-purpose feature representations derived from off-the-shelf self-supervised models with no VPR-specific training are the right substrate upon which to build such a universal VPR solution. Combining these derived features with unsupervised feature aggregation enables our suite of methods, AnyLoc, to achieve up to 4X significantly higher performance than existing approaches. We further obtain a 6% improvement in performance by characterizing the semantic properties of these features, uncovering unique domains which encapsulate datasets from similar environments. Our detailed experiments and analysis lay a foundation for building VPR solutions that may be deployed anywhere, anytime, and across anyview. We encourage the readers to explore our project page and interactive demos: https://anyloc.github.io/.
arxiv情報
著者 | Nikhil Keetha,Avneesh Mishra,Jay Karhade,Krishna Murthy Jatavallabhula,Sebastian Scherer,Madhava Krishna,Sourav Garg |
発行日 | 2023-11-29 04:44:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google