要約
場所の認識は、自動運転車やモバイルロボットで閉ループまたはグローバルなポジショニングを達成するために不可欠です。
2Dカメラまたは3D LIDARを使用した最近の適切な認識にもかかわらず、4Dレーダーを使用する方法を確認するために4Dレーダーを使用する方法はまだ分からない。
Lidar Point Cloudsと比較して、レーダーデータは劇的にスパースで、騒々しく、解像度がはるかに低く、シーンを効果的に表現する能力を妨げ、4Dレーダーベースの場所認識に大きな課題をもたらします。
この作業は、順次4Dレーダースキャンからのマルチモーダル情報を活用し、時空間的特徴を効果的に抽出して集約することにより、これらの課題に対処します。私たちのアプローチは、(1)ベロシティプロパティからの動的なポイント除去とエゴ速度推定を構成する原則的なパイプラインに従います。
自我速度によって計算された軌跡、(4)整列したBEV機能マップの多面的な時空間特徴が抽出され、集計されています。現実世界の実験結果は、提案された方法の実現可能性を検証し、動的環境の取り扱いにおけるその堅牢性を実証します。
ソースコードが利用可能です。
要約(オリジナル)
Place recognition is essential for achieving closed-loop or global positioning in autonomous vehicles and mobile robots. Despite recent advancements in place recognition using 2D cameras or 3D LiDAR, it remains to be seen how to use 4D radar for place recognition – an increasingly popular sensor for its robustness against adverse weather and lighting conditions. Compared to LiDAR point clouds, radar data are drastically sparser, noisier and in much lower resolution, which hampers their ability to effectively represent scenes, posing significant challenges for 4D radar-based place recognition. This work addresses these challenges by leveraging multi-modal information from sequential 4D radar scans and effectively extracting and aggregating spatio-temporal features.Our approach follows a principled pipeline that comprises (1) dynamic points removal and ego-velocity estimation from velocity property, (2) bird’s eye view (BEV) feature encoding on the refined point cloud, (3) feature alignment using BEV feature map motion trajectory calculated by ego-velocity, (4) multi-scale spatio-temporal features of the aligned BEV feature maps are extracted and aggregated.Real-world experimental results validate the feasibility of the proposed method and demonstrate its robustness in handling dynamic environments. Source codes are available.
arxiv情報
著者 | Shouyi Lu,Guirong Zhuo,Haitao Wang,Quan Zhou,Huanyu Zhou,Renbo Huang,Minqing Huang,Lianqing Zheng,Qiang Shu |
発行日 | 2025-04-07 14:10:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google