Cross-modal Place Recognition in Image Databases using Event-based Sensors

要約

視覚的な場所認識は、多くのロボットタスクにおけるグローバルな位置特定に向けた重要な問題です。
最大の課題の 1 つは、周囲の環境の照明や外観の変化の影響を受ける可能性があることです。
イベント カメラは、その高いダイナミック レンジにより、困難な照明条件でも確実な認識を可能にするため、フレームベースのセンサーに代わる興味深い代替手段となります。
しかし、現在のイベントベースの場所認識方法はイベント情報のみに依存しているため、VPR の下流側のアプリケーションは制限されています。
この論文では、イベント クエリが与えられた場合にデータベースから通常の画像を取得できる、初のクロスモーダル視覚的場所認識フレームワークを紹介します。
私たちの手法は、さまざまなシナリオの下で、Brisbane-Event-VPR データセットに対する最先端のフレームベースおよびイベントベースの手法に関して有望な結果を示しています。
また、パフォーマンスを大幅に向上させることができる、検索と分類の組み合わせの有効性も検証します。

要約(オリジナル)

Visual place recognition is an important problem towards global localization in many robotics tasks. One of the biggest challenges is that it may suffer from illumination or appearance changes in surrounding environments. Event cameras are interesting alternatives to frame-based sensors as their high dynamic range enables robust perception in difficult illumination conditions. However, current event-based place recognition methods only rely on event information, which restricts downstream applications of VPR. In this paper, we present the first cross-modal visual place recognition framework that is capable of retrieving regular images from a database given an event query. Our method demonstrates promising results with respect to the state-of-the-art frame-based and event-based methods on the Brisbane-Event-VPR dataset under different scenarios. We also verify the effectiveness of the combination of retrieval and classification, which can boost performance by a large margin.

arxiv情報

著者 Xiang Ji,Jiaxin Wei,Yifu Wang,Huiliang Shang,Laurent Kneip
発行日 2023-07-03 14:24:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク