要約
タイトル:
RadarFormer:軽量で正確なリアルタイムレーダー物体検出モデル
要約:
・自動運転車に適した知覚システムの性能は、過去数年間に大幅に向上しています。
・この改善は、LiDARセンサとポイントクラウドデータの使用が増加し、自動運転における物体検出と認識のタスクを容易にすることに関連しています。
・しかしながら、LiDARとカメラシステムは、砂埃や雨などの不利な条件下で使用すると性能が低下する傾向があります。
・一方、レーダーは比較的長波長で動作するため、これらの条件下でもより堅牢な測定が可能です。
・しかしながら、レーダー中心のデータセットは、レーダー知覚のディープラーニング技術の開発にはあまり注目されていません。
・本研究では、レーダー物体検出問題を考慮し、レーダー周波数データのみが検出フレームワークの入力となるレーダー知覚のディープラーニング技術による課題を調べます。
・我々は、ビジョンディープラーニングにおける最新の開発を活用するトランスフォーマーに基づくモデルRadarFormerを提案しました。
・さらに、チャネルチャープタイムマージングモジュールを導入することにより、モデルのサイズと複雑さを10倍以上削減することができ、正確性を損なうことなく検出を実現しました。
・CRUWレーダーデータセットでの包括的な実験は、提案手法の利点を示しています。
・当社のRadarFormerは、推論中に2倍高速であり、彼らのモデルパラメータの1/10しか要求せず、最先端の方法に対して有利に機能します。
・本論文に関連するコードはhttps://github.com/YahiDar/RadarFormerで利用可能です。
要約(オリジナル)
The performance of perception systems developed for autonomous driving vehicles has seen significant improvements over the last few years. This improvement was associated with the increasing use of LiDAR sensors and point cloud data to facilitate the task of object detection and recognition in autonomous driving. However, LiDAR and camera systems show deteriorating performances when used in unfavorable conditions like dusty and rainy weather. Radars on the other hand operate on relatively longer wavelengths which allows for much more robust measurements in these conditions. Despite that, radar-centric data sets do not get a lot of attention in the development of deep learning techniques for radar perception. In this work, we consider the radar object detection problem, in which the radar frequency data is the only input into the detection framework. We further investigate the challenges of using radar-only data in deep learning models. We propose a transformers-based model, named RadarFormer, that utilizes state-of-the-art developments in vision deep learning. Our model also introduces a channel-chirp-time merging module that reduces the size and complexity of our models by more than 10 times without compromising accuracy. Comprehensive experiments on the CRUW radar dataset demonstrate the advantages of the proposed method. Our RadarFormer performs favorably against the state-of-the-art methods while being 2x faster during inference and requiring only one-tenth of their model parameters. The code associated with this paper is available at https://github.com/YahiDar/RadarFormer.
arxiv情報
著者 | Yahia Dalbah,Jean Lahoud,Hisham Cholakkal |
発行日 | 2023-04-17 17:07:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI