MUFASA: Multi-View Fusion and Adaptation Network with Spatial Awareness for Radar Object Detection

要約

近年、レーダーによる物体検出に基づくアプローチは、LiDARと比較して悪天候下でも頑健であることから、自律走行システムにおいて大きな進歩を遂げている。しかし、レーダー点群の疎密は、正確な物体検出を実現する上での課題となっており、効果的かつ包括的な特徴抽出技術の重要性が浮き彫りになっている。この課題に対処するため、本稿ではレーダー点群の包括的な特徴抽出手法を紹介する。本研究ではまず、プラグアンドプレイモジュールであるGeoSPAを用いて検出ネットワークの能力を強化する。これはラロンド(Lalonde)特徴を活用し、局所的な幾何学的パターンを探索する。さらに、分散型マルチビューアテンションメカニズムであるDEMVAを設計し、データセット全体で共有される情報を個々のフレームのグローバル情報と統合する。この2つのモジュールを採用することで、特徴抽出の改善を通じて物体検出性能を向上させる我々の手法MUFASAを紹介する。この手法をVoDとTJ4DRaDSetデータセットで評価し、その有効性を実証する。特にVoDデータセットでは、mAPが50.24%と、レーダーベースの手法の中で最先端の結果を達成した。

要約(オリジナル)

In recent years, approaches based on radar object detection have made significant progress in autonomous driving systems due to their robustness under adverse weather compared to LiDAR. However, the sparsity of radar point clouds poses challenges in achieving precise object detection, highlighting the importance of effective and comprehensive feature extraction technologies. To address this challenge, this paper introduces a comprehensive feature extraction method for radar point clouds. This study first enhances the capability of detection networks by using a plug-and-play module, GeoSPA. It leverages the Lalonde features to explore local geometric patterns. Additionally, a distributed multi-view attention mechanism, DEMVA, is designed to integrate the shared information across the entire dataset with the global information of each individual frame. By employing the two modules, we present our method, MUFASA, which enhances object detection performance through improved feature extraction. The approach is evaluated on the VoD and TJ4DRaDSet datasets to demonstrate its effectiveness. In particular, we achieve state-of-the-art results among radar-based methods on the VoD dataset with the mAP of 50.24%.

arxiv情報

著者 Xiangyuan Peng,Miao Tang,Huawei Sun,Kay Bierzynski,Lorenzo Servadei,Robert Wille
発行日 2024-08-01 13:52:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク