Gaussian Radar Transformer for Semantic Segmentation in Noisy Radar Data

要約

シーンの理解は、将来の状態の予測、衝突の回避、および経路計画を行うために、動的環境における自律型ロボットにとって重要です。
カメラと LiDAR の認識は、近年大きな進歩を遂げましたが、悪天候下では限界に直面しています。
マルチモーダル センサー スイートの可能性を最大限に活用するために、レーダー センサーは安全上重要なタスクに不可欠であり、今日のほとんどの新しい車両に既に搭載されています。
この論文では、別のセンサーモダリティを使用して環境の認識を強化するために、レーダーポイントクラウド内の移動オブジェクトのセマンティックセグメンテーションの問題に対処します。
点群を高密度化するために複数のスキャンを集約する代わりに、まばらな単一スキャンのセグメンテーションを正確に実行する自己注意メカニズムに基づく新しいアプローチを提案します。
Gaussian Radar Transformer と呼ばれる私たちのアプローチには、新しく導入された Gaussian Transformer レイヤーが含まれています。これは、ソフトマックス正規化をガウス関数に置き換えて、個々のポイントの寄与を分離します。
長距離の依存関係をキャプチャするというトランスフォーマーの課題に取り組むために、受容野を拡大し、強力な空間関係をキャプチャするための注意深いアップサンプリング モジュールとダウンサンプリング モジュールを提案します。
RadarScenes データ セットの他の最先端の方法とアプローチを比較し、一時的な情報を利用しなくても、さまざまな環境で優れたセグメンテーション品質を示します。

要約(オリジナル)

Scene understanding is crucial for autonomous robots in dynamic environments for making future state predictions, avoiding collisions, and path planning. Camera and LiDAR perception made tremendous progress in recent years, but face limitations under adverse weather conditions. To leverage the full potential of multi-modal sensor suites, radar sensors are essential for safety critical tasks and are already installed in most new vehicles today. In this paper, we address the problem of semantic segmentation of moving objects in radar point clouds to enhance the perception of the environment with another sensor modality. Instead of aggregating multiple scans to densify the point clouds, we propose a novel approach based on the self-attention mechanism to accurately perform sparse, single-scan segmentation. Our approach, called Gaussian Radar Transformer, includes the newly introduced Gaussian transformer layer, which replaces the softmax normalization by a Gaussian function to decouple the contribution of individual points. To tackle the challenge of the transformer to capture long-range dependencies, we propose our attentive up- and downsampling modules to enlarge the receptive field and capture strong spatial relations. We compare our approach to other state-of-the-art methods on the RadarScenes data set and show superior segmentation quality in diverse environments, even without exploiting temporal information.

arxiv情報

著者 Matthias Zeller,Jens Behley,Michael Heidingsfeld,Cyrill Stachniss
発行日 2022-12-07 15:05:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク