要約
3D 物体検出は、自動運転車 (AV) における大きな可能性があるため、最近大きな注目を集めています。
深層学習ベースのオブジェクト検出器の成功は、大規模なアノテーション付きデータセットの利用可能性にかかっていますが、特に 3D バウンディング ボックス アノテーションの場合、コンパイルに時間と費用がかかります。
この研究では、アノテーションの負担を軽減する潜在的なソリューションとして、多様性に基づくアクティブ ラーニング (AL) を調査します。
注釈の予算が限られているため、人間が注釈を付けるために最も有益なフレームとオブジェクトのみが自動的に選択されます。
技術的には、AV データセットで提供されるマルチモーダル情報を利用し、選択されたサンプルの空間的および時間的多様性を強制する新しい取得関数を提案します。
フレームと 3D バウンディング ボックスの両方にアノテーションを付けるための現実的なコストが考慮される、現実的なアノテーション コスト測定の下で、提案された方法を他の AL 戦略に対してベンチマークします。
nuScenes データセットに対する提案手法の有効性を実証し、既存の AL 戦略を大幅に上回るパフォーマンスを示します。
コードは https://github.com/Linkon87/Exploring-Diversity-based-Active-Learning-for-3D-Object-Detection-in-Autonomous-Driving で入手できます。
要約(オリジナル)
3D object detection has recently received much attention due to its great potential in autonomous vehicle (AV). The success of deep learning based object detectors relies on the availability of large-scale annotated datasets, which is time-consuming and expensive to compile, especially for 3D bounding box annotation. In this work, we investigate diversity-based active learning (AL) as a potential solution to alleviate the annotation burden. Given limited annotation budget, only the most informative frames and objects are automatically selected for human to annotate. Technically, we take the advantage of the multimodal information provided in an AV dataset, and propose a novel acquisition function that enforces spatial and temporal diversity in the selected samples. We benchmark the proposed method against other AL strategies under realistic annotation cost measurement, where the realistic costs for annotating a frame and a 3D bounding box are both taken into consideration. We demonstrate the effectiveness of the proposed method on the nuScenes dataset and show that it outperforms existing AL strategies significantly. Code is available at https://github.com/Linkon87/Exploring-Diversity-based-Active-Learning-for-3D-Object-Detection-in-Autonomous-Driving
arxiv情報
著者 | Jinpeng Lin,Zhihao Liang,Shengheng Deng,Lile Cai,Tao Jiang,Tianrui Li,Kui Jia,Xun Xu |
発行日 | 2024-10-22 13:34:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google