要約
復路中に反対の視点から場所を認識することは、人間のドライバーにとって一般的な経験です。
しかし、類似のロボティクス機能である、180 度回転の下で限られた視野のカメラを備えた視覚的場所認識 (VPR) を実現するのは困難であることが判明しています。
この問題に対処するために、この論文では、ステレオ ビジュアル オドメトリ (VO) を通じて推定された構造のみに依存する反対視点 VPR の手法である Same Place Opging Trajectory (SPOT) を紹介します。
この方法は、LIDAR 記述子の最近の進歩を拡張し、新しい二重 (類似および反対の) 距離行列シーケンス マッチング方法を利用します。
さまざまな照明条件下で同様の方向または反対方向に走行する 6.7 ~ 7.6 km のルートを含む、公開されているデータセットで SPOT を評価します。
提案されたアルゴリズムは、最先端のアルゴリズムに比べて顕著な改善を示しており、反対の視点のケースで 100% の精度で最大 91.7% の再現率を達成しながら、テストされたすべてのベースラインよりも必要なストレージが少なく、1 つを除くすべてのベースラインよりも高速に実行されます。
さらに、提案された方法は、視点が類似しているか反対であるかについての先験的な知識を前提としておらず、同様の視点の場合でも競合パフォーマンスを示します。
要約(オリジナル)
Recognizing places from an opposing viewpoint during a return trip is a common experience for human drivers. However, the analogous robotics capability, visual place recognition (VPR) with limited field of view cameras under 180 degree rotations, has proven to be challenging to achieve. To address this problem, this paper presents Same Place Opposing Trajectory (SPOT), a technique for opposing viewpoint VPR that relies exclusively on structure estimated through stereo visual odometry (VO). The method extends recent advances in lidar descriptors and utilizes a novel double (similar and opposing) distance matrix sequence matching method. We evaluate SPOT on a publicly available dataset with 6.7-7.6 km routes driven in similar and opposing directions under various lighting conditions. The proposed algorithm demonstrates remarkable improvement over the state-of-the-art, achieving up to 91.7% recall at 100% precision in opposing viewpoint cases, while requiring less storage than all baselines tested and running faster than all but one. Moreover, the proposed method assumes no a priori knowledge of whether the viewpoint is similar or opposing, and also demonstrates competitive performance in similar viewpoint cases.
arxiv情報
著者 | Spencer Carmichael,Rahul Agrawal,Ram Vasudevan,Katherine A. Skinner |
発行日 | 2024-04-18 17:09:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google