Safety-Critical Scenario Generation Via Reinforcement Learning Based Editing

要約

自動運転車の安全性をテストおよび検証するには、安全性が重要なシナリオを生成することが不可欠です。
従来の最適化手法は次元の呪いに悩まされており、検索空間が固定パラメータ空間に制限されていました。
これらの課題に対処するために、新しいエージェントの追加や既存のエージェントの軌道の変更など、逐次編集によってシナリオを生成する深層強化学習アプローチを提案します。
私たちのフレームワークは、リスク目標と妥当性目標の両方で構成される報酬関数を採用しています。
妥当性目標では、変分オートエンコーダーなどの生成モデルを利用して、トレーニング データセットから生成されたパラメーターの尤度を学習します。
ありそうもないシナリオの生成にペナルティが課せられます。
私たちのアプローチは次元の課題を克服し、安全性が重要なシナリオを幅広く検討します。
私たちの評価は、提案された方法が以前のアプローチと比較してより高品質の安全性が重要なシナリオを生成することを示しています。

要約(オリジナル)

Generating safety-critical scenarios is essential for testing and verifying the safety of autonomous vehicles. Traditional optimization techniques suffer from the curse of dimensionality and limit the search space to fixed parameter spaces. To address these challenges, we propose a deep reinforcement learning approach that generates scenarios by sequential editing, such as adding new agents or modifying the trajectories of the existing agents. Our framework employs a reward function consisting of both risk and plausibility objectives. The plausibility objective leverages generative models, such as a variational autoencoder, to learn the likelihood of the generated parameters from the training datasets; It penalizes the generation of unlikely scenarios. Our approach overcomes the dimensionality challenge and explores a wide range of safety-critical scenarios. Our evaluation demonstrates that the proposed method generates safety-critical scenarios of higher quality compared with previous approaches.

arxiv情報

著者 Haolan Liu,Liangjun Zhang,Siva Kumar Sastry Hari,Jishen Zhao
発行日 2023-09-25 23:06:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク