Bootstrapping Autonomous Radars with Self-Supervised Learning

要約

レーダーを使用した自動運転車の認識は、霧や悪天候でも走行できるため、研究への関心が高まっています。
ただし、レーダー モデルのトレーニングは、大規模なレーダー データに注釈を付けるコストと難しさによって妨げられます。
このボトルネックを克服するために、大量のラベルなしレーダー データを活用して、自動運転知覚タスク用のレーダーのみの埋め込みを事前トレーニングする自己教師あり学習フレームワークを提案します。
提案された方法は、レーダー間およびレーダーとビジョンのコントラスト損失を組み合わせて、対応するカメラ画像と組み合わせたラベルなしレーダー ヒートマップから一般的な表現を学習します。
下流の物体検出に使用すると、提案された自己監視フレームワークが mAP における最先端の教師ありベースラインの精度を 5.8% 向上させることができることを実証します。

要約(オリジナル)

The perception of autonomous vehicles using radars has attracted increased research interest due its ability to operate in fog and bad weather. However, training radar models is hindered by the cost and difficulty of annotating large-scale radar data. To overcome this bottleneck, we propose a self-supervised learning framework to leverage the large amount of unlabeled radar data to pre-train radar-only embeddings for self-driving perception tasks. The proposed method combines radar-to-radar and radar-to-vision contrastive losses to learn a general representation from unlabeled radar heatmaps paired with their corresponding camera images. When used for downstream object detection, we demonstrate that the proposed self-supervision framework can improve the accuracy of state-of-the-art supervised baselines by 5.8% in mAP.

arxiv情報

著者 Yiduo Hao,Sohrab Madani,Junfeng Guan,Mohammed Alloulah,Saurabh Gupta,Haitham Hassanieh
発行日 2023-12-07 18:38:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク