FREA: Feasibility-Guided Generation of Safety-Critical Scenarios with Reasonable Adversariality

要約

安全性が重要なシナリオを生成することは、不可欠であるものの、大規模に収集することが困難であり、自動運転車 (AV) の堅牢性を評価する効果的な方法となります。
既存の手法は、シナリオの自然性を維持しながら敵対性を最適化することに焦点を当てており、データ駆動型のアプローチを通じてバランスを達成することを目指しています。
ただし、敵対性の適切な上限がないと、シナリオが過剰な敵対性を示し、回避できない衝突が発生する可能性があります。
この論文では、敵対的シナリオの合理性を確保するためのガイダンスとして AV の最大実現可能領域 (LFR) を組み込んだ、新しいセーフティ クリティカル シナリオ生成手法である FREA を紹介します。
具体的には、FREA は最初にオフライン データセットから AV の LFR を事前計算します。
その後、シーンのクリティカル バックグラウンド ビークル (CBV) を制御する合理的な敵対的ポリシーを学習し、新しい実現可能性に依存する敵対的目的関数を最大化することで、敵対的でありながら AV 実現可能なシナリオを生成します。
広範な実験により、FREA がセーフティ クリティカルなシナリオを効果的に生成し、AV の実現可能性を確保しながら、かなりのニアミス イベントを生成できることが示されています。
一般化分析では、さまざまな代替 AV 手法およびトラフィック環境にわたる AV テストにおける FREA の堅牢性も確認されています。

要約(オリジナル)

Generating safety-critical scenarios, which are essential yet difficult to collect at scale, offers an effective method to evaluate the robustness of autonomous vehicles (AVs). Existing methods focus on optimizing adversariality while preserving the naturalness of scenarios, aiming to achieve a balance through data-driven approaches. However, without an appropriate upper bound for adversariality, the scenarios might exhibit excessive adversariality, potentially leading to unavoidable collisions. In this paper, we introduce FREA, a novel safety-critical scenarios generation method that incorporates the Largest Feasible Region (LFR) of AV as guidance to ensure the reasonableness of the adversarial scenarios. Concretely, FREA initially pre-calculates the LFR of AV from offline datasets. Subsequently, it learns a reasonable adversarial policy that controls the scene’s critical background vehicles (CBVs) to generate adversarial yet AV-feasible scenarios by maximizing a novel feasibility-dependent adversarial objective function. Extensive experiments illustrate that FREA can effectively generate safety-critical scenarios, yielding considerable near-miss events while ensuring AV’s feasibility. Generalization analysis also confirms the robustness of FREA in AV testing across various surrogate AV methods and traffic environments.

arxiv情報

著者 Keyu Chen,Yuheng Lei,Hao Cheng,Haoran Wu,Wenchao Sun,Sifa Zheng
発行日 2024-10-11 05:32:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク