要約
自律運転(AD)システムとコンポーネントの検証と検証は、現実世界の有病率の増加が増加するため、重要性が高まっています。
安全性の高いシナリオ生成は、閉ループトレーニングを通じて広告ポリシーを堅牢にするための重要なアプローチです。
ただし、シナリオ生成の既存のアプローチは単純な目標に依存しており、過度に攻撃的または非反応性のある敵対的行動をもたらします。
多様な敵対的でありながら現実的なシナリオを生成するために、客観的な機能と敵対的で人間のようなスキルを活用するシナリオ摂動アプローチであるシールを提案します。
シールされたシナリオは、SOTAベースラインよりも現実的であり、20%以上の現実世界、分散型、および分散型シナリオ全体でエゴタスクの成功を改善します。
将来の研究を促進するために、コードとツールをリリースします:https://github.com/cmubig/seal
要約(オリジナル)
Verification and validation of autonomous driving (AD) systems and components is of increasing importance, as such technology increases in real-world prevalence. Safety-critical scenario generation is a key approach to robustify AD policies through closed-loop training. However, existing approaches for scenario generation rely on simplistic objectives, resulting in overly-aggressive or non-reactive adversarial behaviors. To generate diverse adversarial yet realistic scenarios, we propose SEAL, a scenario perturbation approach which leverages learned objective functions and adversarial, human-like skills. SEAL-perturbed scenarios are more realistic than SOTA baselines, leading to improved ego task success across real-world, in-distribution, and out-of-distribution scenarios, of more than 20%. To facilitate future research, we release our code and tools: https://github.com/cmubig/SEAL
arxiv情報
著者 | Benjamin Stoler,Ingrid Navarro,Jonathan Francis,Jean Oh |
発行日 | 2025-02-17 23:48:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google