要約
自動車用レーダー センサーは、先進運転支援システム (ADAS) に貴重な情報を提供します。
レーダーは、天候や光の状態に関係なく、物体までの距離と相対速度を確実に推定できます。
ただし、レーダー センサーは、解像度が低く、オブジェクトの形状がクラス内で大きく変動するという問題があります。
時間情報 (複数のフレームなど) を利用すると、オブジェクトのダイナミクスをより適切にキャプチャできることが示されているため、オブジェクトの形状の変化を捉えることができます。
ほとんどの時間レーダー オブジェクト検出器は、空間情報と時間情報を学習するために 3D 畳み込みを使用します。
ただし、これらの方法は多くの場合、因果関係がなく、リアルタイム アプリケーションには適していません。
この作業では、オンライン レーダー オブジェクト検出用の新しいリカレント CNN アーキテクチャである RECORD を紹介します。
連続するフレーム間の時空間依存性を学習するために、畳み込みと ConvLSTM を組み合わせたエンドツーエンドのトレーニング可能なアーキテクチャを提案します。
私たちのモデルは因果関係があり、オブジェクトを検出するために ConvLSTM のメモリにエンコードされた過去の情報のみを必要とします。
私たちの実験は、さまざまなレーダー表現 (範囲ドップラー、範囲角度) でオブジェクトを検出するためのこのような方法の関連性を示し、ROD2021 および CARRADA データセットで最先端のモデルを凌駕し、計算コストを抑えます。
コードはすぐに利用可能になります。
要約(オリジナル)
Automotive radar sensors provide valuable information for advanced driving assistance systems (ADAS). Radars can reliably estimate the distance to an object and the relative velocity, regardless of weather and light conditions. However, radar sensors suffer from low resolution and huge intra-class variations in the shape of objects. Exploiting the time information (e.g., multiple frames) has been shown to help to capture better the dynamics of objects and, therefore, the variation in the shape of objects. Most temporal radar object detectors use 3D convolutions to learn spatial and temporal information. However, these methods are often non-causal and unsuitable for real-time applications. This work presents RECORD, a new recurrent CNN architecture for online radar object detection. We propose an end-to-end trainable architecture mixing convolutions and ConvLSTMs to learn spatio-temporal dependencies between successive frames. Our model is causal and requires only the past information encoded in the memory of the ConvLSTMs to detect objects. Our experiments show such a method’s relevance for detecting objects in different radar representations (range-Doppler, range-angle) and outperform state-of-the-art models on the ROD2021 and CARRADA datasets while being less computationally expensive. The code will be available soon.
arxiv情報
著者 | Colin Decourt,Rufin VanRullen,Didier Salle,Thomas Oberlin |
発行日 | 2022-12-21 16:36:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google