TransRadar: Adaptive-Directional Transformer for Real-Time Multi-View Radar Semantic Segmentation

要約

自律走行を可能にし、高い性能と安全性を維持する上で、シーンの理解は不可欠な役割を担っている。この課題に対処するため、カメラとレーザースキャナー(LiDAR)が最も一般的に使用されているセンサーであり、レーダーはあまり普及していない。にもかかわらず、レーダーは低コストで情報量が多く、悪天候にも強い高速センシング技術である。レーダーに基づくシーンセマンティックセグメンテーションのための複数の研究が以前に発表されているが、レーダーデータの性質は、前景と背景が不均衡であるだけでなく、固有のノイズとスパース性により、依然として課題を投げかけている。本研究では、レーダー知覚の欠点に対処するために調整された新しいアーキテクチャと損失関数を通して、レーダーデータの多入力融合を用いたレーダーシーンのセマンティックセグメンテーションへの新しいアプローチを提案する。我々の新しいアーキテクチャは、重要な特徴情報を適応的に捉える効率的な注意ブロックを含む。我々の手法であるTransRadarは、CARRADAとRADIalデータセットにおいて、より小さなモデルサイズでありながら、最先端の手法を凌駕している。https://github.com/YahiDar/TransRadar

要約(オリジナル)

Scene understanding plays an essential role in enabling autonomous driving and maintaining high standards of performance and safety. To address this task, cameras and laser scanners (LiDARs) have been the most commonly used sensors, with radars being less popular. Despite that, radars remain low-cost, information-dense, and fast-sensing techniques that are resistant to adverse weather conditions. While multiple works have been previously presented for radar-based scene semantic segmentation, the nature of the radar data still poses a challenge due to the inherent noise and sparsity, as well as the disproportionate foreground and background. In this work, we propose a novel approach to the semantic segmentation of radar scenes using a multi-input fusion of radar data through a novel architecture and loss functions that are tailored to tackle the drawbacks of radar perception. Our novel architecture includes an efficient attention block that adaptively captures important feature information. Our method, TransRadar, outperforms state-of-the-art methods on the CARRADA and RADIal datasets while having smaller model sizes. https://github.com/YahiDar/TransRadar

arxiv情報

著者 Yahia Dalbah,Jean Lahoud,Hisham Cholakkal
発行日 2023-10-03 17:59:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV パーマリンク