Open-RadVLAD: Fast and Robust Radar Place Recognition

要約

レーダーの場所認識では、多くの場合、車両が以前に訪れたことのある場所にいることを認識するために、ライブ スキャンをベクトルとしてエンコードし、このベクトルをデータベースと照合する必要があります。
レーダーは本質的に照明や気象条件に対して堅牢ですが、このセンサーによる場所認識は依然として次の影響を受けます: (1) 視点の変化、つまり平行移動や回転、(2) センサーのアーティファクトまたは「ノイズ」。
360 度走査レーダーの場合、回転は方位角全体を何らかの方法で集約することで容易に処理できます。
また、この研究では、特に、ルートを繰り返すときに車両が主に同じ車線をたどる都市部の運転では、並進不変性に対処するよりも、表現の豊富さやセンサーノイズに対処する方が重要であると主張しています。
私たちの方法では、計算効率を高めるため、極座標表現のみを使用します。
部分的な平行移動の不変性と信号ノイズに対する堅牢性のために、ラジアルリターンに沿った 1 次元フーリエ変換のみを使用します。
また、局所的に集約された記述子のベクトルを構築することにより、回転不変性と非常に識別力の高い記述子空間を実現します。
私たちの方法は、30 のオックスフォード レーダー ロボットカー データセット シーケンス (それぞれ約 10 km) からの 870 ペアの軌道すべてを徹底的に組み合わせて、これまでのすべてのレーダー位置認識作業よりも包括的にテストされています。
コードと詳細な結果は、この分野の将来の作業のためのオープン実装およびベンチマークとして、github.com/mttgdd/open-radvlad で提供されています。
Recall@1 では中央値 91.52% を達成しており、他の唯一のオープン実装である RaPlace の 69.55% を上回っており、その数分の一の計算コストで (ラドン、フーリエ、逆フーリエなどのより少ない積分変換に依存しています)。

要約(オリジナル)

Radar place recognition often involves encoding a live scan as a vector and matching this vector to a database in order to recognise that the vehicle is in a location that it has visited before. Radar is inherently robust to lighting or weather conditions, but place recognition with this sensor is still affected by: (1) viewpoint variation, i.e. translation and rotation, (2) sensor artefacts or ‘noises’. For 360-degree scanning radar, rotation is readily dealt with by in some way aggregating across azimuths. Also, we argue in this work that it is more critical to deal with the richness of representation and sensor noises than it is to deal with translational invariance – particularly in urban driving where vehicles predominantly follow the same lane when repeating a route. In our method, for computational efficiency, we use only the polar representation. For partial translation invariance and robustness to signal noise, we use only a one-dimensional Fourier Transform along radial returns. We also achieve rotational invariance and a very discriminative descriptor space by building a vector of locally aggregated descriptors. Our method is more comprehensively tested than all prior radar place recognition work – over an exhaustive combination of all 870 pairs of trajectories from 30 Oxford Radar RobotCar Dataset sequences (each approximately 10 km). Code and detailed results are provided at github.com/mttgdd/open-radvlad, as an open implementation and benchmark for future work in this area. We achieve a median of 91.52% in Recall@1, outstripping the 69.55% for the only other open implementation, RaPlace, and at a fraction of its computational cost (relying on fewer integral transforms e.g. Radon, Fourier, and inverse Fourier).

arxiv情報

著者 Matthew Gadd,Paul Newman
発行日 2024-01-27 10:55:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク