Exploiting Sparsity in Automotive Radar Object Detection Networks

要約

環境を正確に認識することは、自動運転システムの安全かつ信頼性の高い機能を確保するために重要です。
レーダー物体検出ネットワークは、このようなシステムの基本的な部分の 1 つです。
CNN ベースのオブジェクト検出器は、この状況で優れたパフォーマンスを示しましたが、大規模なコンピューティング リソースを必要とします。
この論文では、強力なグリッドベースの検出と少ないコンピューティング リソースを組み合わせた、スパース畳み込みオブジェクト検出ネットワークについて調査します。
私たちはレーダー固有の課題を調査し、グリッド レンダリングとスパース バックボーン アーキテクチャの改善策としてスパース カーネル ポイント ピラー (SKPP) とデュアル ボクセル ポイント コンボリューション (DVPC) を提案します。
nuScenes で SKPP-DPVCN アーキテクチャを評価すると、Car AP4.0 ではベースラインを 5.89% 上回り、以前の最先端技術を 4.19% 上回りました。
さらに、SKPP-DPVCN は平均スケール誤差 (ASE) をベースラインより 21.41% 削減します。

要約(オリジナル)

Having precise perception of the environment is crucial for ensuring the secure and reliable functioning of autonomous driving systems. Radar object detection networks are one fundamental part of such systems. CNN-based object detectors showed good performance in this context, but they require large compute resources. This paper investigates sparse convolutional object detection networks, which combine powerful grid-based detection with low compute resources. We investigate radar specific challenges and propose sparse kernel point pillars (SKPP) and dual voxel point convolutions (DVPC) as remedies for the grid rendering and sparse backbone architectures. We evaluate our SKPP-DPVCN architecture on nuScenes, which outperforms the baseline by 5.89% and the previous state of the art by 4.19% in Car AP4.0. Moreover, SKPP-DPVCN reduces the average scale error (ASE) by 21.41% over the baseline.

arxiv情報

著者 Marius Lippke,Maurice Quach,Sascha Braun,Daniel Köhler,Michael Ulrich,Bastian Bischoff,Wei Yap Tan
発行日 2023-08-15 12:58:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO パーマリンク