Open-RadVLAD: Fast and Robust Radar Place Recognition

要約

レーダーによる場所認識では、多くの場合、ライブスキャンをベクトルとしてエンコードし、このベクトルをデータベースと照合することで、車両が以前に訪れたことのある場所にいることを認識する。レーダーは本来、照明や天候に左右されないが、このセンサーを使った場所認識は次のような影響を受ける:(1)視点の変動、すなわち平行移動と回転、(2)センサーのアーチファクトまたは「ノイズ」。360度スキャニングレーダーの場合、回転は方位角にわたって何らかの方法で集約することで容易に対処できる。また、この研究では、並進不変性を扱うよりも、豊富な表現とセンサーノイズを扱うことの方が重要であると主張する。我々の手法では、計算効率のため、極座標表現のみを使用する。部分的な並進不変性と信号ノイズに対するロバスト性のために、半径方向リターンに沿った1次元フーリエ変換のみを使用する。また、局所的に集約された記述子のベクトルを構築することで、回転不変性と非常に識別性の高い記述子空間を実現する。本手法は、30個のOxford Radar RobotCar Datasetシーケンス(それぞれ約10km)から得られた870組の軌跡を網羅的に組み合わせることで、先行する全てのレーダー地名認識研究よりも包括的にテストされている。コードと詳細な結果はgithub.com/mttgdd/open-radvladで提供されており、オープンな実装とこの分野での今後の研究のベンチマークとして利用できる。我々は、中央値91.52%のRecall@1を達成し、他の唯一のオープンな実装であるRaPlaceの69.55%を上回った。

要約(オリジナル)

Radar place recognition often involves encoding a live scan as a vector and matching this vector to a database in order to recognise that the vehicle is in a location that it has visited before. Radar is inherently robust to lighting or weather conditions, but place recognition with this sensor is still affected by: (1) viewpoint variation, i.e. translation and rotation, (2) sensor artefacts or ‘noises’. For 360-degree scanning radar, rotation is readily dealt with by in some way aggregating across azimuths. Also, we argue in this work that it is more critical to deal with the richness of representation and sensor noises than it is to deal with translational invariance – particularly in urban driving where vehicles predominantly follow the same lane when repeating a route. In our method, for computational efficiency, we use only the polar representation. For partial translation invariance and robustness to signal noise, we use only a one-dimensional Fourier Transform along radial returns. We also achieve rotational invariance and a very discriminative descriptor space by building a vector of locally aggregated descriptors. Our method is more comprehensively tested than all prior radar place recognition work – over an exhaustive combination of all 870 pairs of trajectories from 30 Oxford Radar RobotCar Dataset sequences (each approximately 10 km). Code and detailed results are provided at github.com/mttgdd/open-radvlad, as an open implementation and benchmark for future work in this area. We achieve a median of 91.52% in Recall@1, outstripping the 69.55% for the only other open implementation, RaPlace, and at a fraction of its computational cost (relying on fewer integral transforms e.g. Radon, Fourier, and inverse Fourier).

arxiv情報

著者 Matthew Gadd,Paul Newman
発行日 2024-03-02 11:23:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク