要約
この作業では、自律運転コンテキストでの3Dオブジェクト検出器の安全指向のパフォーマンスを検討します。
具体的には、大量の文献で示された印象的な結果にもかかわらず、開発者はしばしばこれらの学習ベースの知覚モデルの安全な展開を確保するのが難しいと感じています。
安全指向のメトリックの欠如に課題を帰し、ここに妥協のない空間制約(USC)を提示します。これは、自律車両から見たときにオブジェクトを完全にカバーすることを予測に要求する単純でありながら重要なローカリゼーション要件を特徴付けます。
視点と鳥瞰図を使用して策定する際の制約は、定量的測定によって自然に反映される可能性があります。
最後に、モデル評価を超えて、既存のモデルの安全指向の微調整を可能にするために、定量的尺度を共通の損失関数に組み込みます。
ヌスセンデータセットと閉ループシミュレーションを使用した実験により、我々の作業は、認識レベルでの安全性の概念のそのような考慮事項を示しています。モデルのパフォーマンスを精度を超えて改善するだけでなく、実際のシステム安全とのより直接的なリンクを可能にします。
要約(オリジナル)
In this work, we consider the safety-oriented performance of 3D object detectors in autonomous driving contexts. Specifically, despite impressive results shown by the mass literature, developers often find it hard to ensure the safe deployment of these learning-based perception models. Attributing the challenge to the lack of safety-oriented metrics, we hereby present uncompromising spatial constraints (USC), which characterize a simple yet important localization requirement demanding the predictions to fully cover the objects when seen from the autonomous vehicle. The constraints, as we formulate using the perspective and bird’s-eye views, can be naturally reflected by quantitative measures, such that having an object detector with a higher score implies a lower risk of collision. Finally, beyond model evaluation, we incorporate the quantitative measures into common loss functions to enable safety-oriented fine-tuning for existing models. With experiments using the nuScenes dataset and a closed-loop simulation, our work demonstrates such considerations of safety notions at the perception level not only improve model performances beyond accuracy but also allow for a more direct linkage to actual system safety.
arxiv情報
著者 | Brian Hsuan-Cheng Liao,Chih-Hong Cheng,Hasan Esen,Alois Knoll |
発行日 | 2025-03-28 16:42:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google