要約
自動運転(AD)のようなセーフティクリティカルな領域では、物体検知器によるエラーが歩行者や他の交通弱者(VRU)を危険にさらす可能性がある。一般的な評価指標は適切な安全指標ではないため、最近の研究では、安全性が重要なVRUを特定し、物体検出器へのリスクをバックアノテーションするアプローチが採用されている。しかし、これらのアプローチは、ディープニューラルネットワーク(DNN)の学習プロセスにおいて安全要素を考慮していない。そのため、最新のDNNでは、重大性に関係なく、すべての誤検出に等しくペナルティが課せられます。その結果、重大な故障ケース、すなわち偽陰性の発生を軽減するために、重大な歩行者の検出性能を向上させる安全性を考慮した学習戦略が必要となる可能性がある。本論文では、歩行者ごとに推定されたクリティカリティスコアを学習時に活用する、安全性を考慮した新しい損失バリエーションを提案する。我々は、臨界性を定量化する最悪の場合の脅威を考慮するために、距離情報と共に、運動領域からの到達可能性集合ベースの衝突までの時間(TTC-RSB)メトリックを利用する。nuScenesデータセットのRetinaNetとFCOSを用いた評価結果から、我々の安全性を考慮した損失関数を用いてモデルを訓練することで、一般的なケース、すなわち安全クリティカルゾーンの外側にいる歩行者の性能を犠牲にすることなく、クリティカルな歩行者の誤検出を軽減できることが実証された。
要約(オリジナル)
In safety-critical domains like automated driving (AD), errors by the object detector may endanger pedestrians and other vulnerable road users (VRU). As common evaluation metrics are not an adequate safety indicator, recent works employ approaches to identify safety-critical VRU and back-annotate the risk to the object detector. However, those approaches do not consider the safety factor in the deep neural network (DNN) training process. Thus, state-of-the-art DNN penalizes all misdetections equally irrespective of their criticality. Subsequently, to mitigate the occurrence of critical failure cases, i.e., false negatives, a safety-aware training strategy might be required to enhance the detection performance for critical pedestrians. In this paper, we propose a novel safety-aware loss variation that leverages the estimated per-pedestrian criticality scores during training. We exploit the reachability set-based time-to-collision (TTC-RSB) metric from the motion domain along with distance information to account for the worst-case threat quantifying the criticality. Our evaluation results using RetinaNet and FCOS on the nuScenes dataset demonstrate that training the models with our safety-aware loss function mitigates the misdetection of critical pedestrians without sacrificing performance for the general case, i.e., pedestrians outside the safety-critical zone.
arxiv情報
著者 | Maria Lyssenko,Piyush Pimplikar,Maarten Bieshaar,Farzad Nozarian,Rudolph Triebel |
発行日 | 2024-02-05 13:16:38+00:00 |
arxivサイト | arxiv_id(pdf) |