要約
タイトル:自動運転車のための安全重視シナリオの生成に関するAdvSim
要約:
– 自動運転システムが改善されるにつれ、自律スタックが失敗する可能性のあるシナリオをシミュレートすることがますます重要になっています。
– 伝統的に、それらのシナリオは一部のシーンについて、グラウンドトゥルーのアクターの状態を入力として取る計画モジュールに対して生成されますが、これはスケーリングしないため、オクルージョンによる知覚の失敗など、すべての可能性の失敗を特定できません。
– この論文では、LiDARベースの自律システムに対して安全重視シナリオを生成するための敵対的なフレームワークであるAdvSimを提案しています。
– 初期の交通シナリオが与えられた場合、AdvSimはアクターの軌道を物理的に可能な方法で変更し、変更された世界に一致するようにLiDARセンサーデータを更新します。
– 重要なことに、センサーデータから直接シミュレートすることで、全自律スタックに対して安全重視の敵対的シナリオを得ることができます。
– 実験により、AdvSimの手法は一般的であり、現代の自動運転システムの幅広い範囲について、数千の意味のある安全重視シナリオを特定できることが示されました。
– さらに、AdvSimで生成されたシナリオをトレーニングすることで、これらのシステムの堅牢性と安全性をさらに改善することができます。
要約(オリジナル)
As self-driving systems become better, simulating scenarios where the autonomy stack may fail becomes more important. Traditionally, those scenarios are generated for a few scenes with respect to the planning module that takes ground-truth actor states as input. This does not scale and cannot identify all possible autonomy failures, such as perception failures due to occlusion. In this paper, we propose AdvSim, an adversarial framework to generate safety-critical scenarios for any LiDAR-based autonomy system. Given an initial traffic scenario, AdvSim modifies the actors’ trajectories in a physically plausible manner and updates the LiDAR sensor data to match the perturbed world. Importantly, by simulating directly from sensor data, we obtain adversarial scenarios that are safety-critical for the full autonomy stack. Our experiments show that our approach is general and can identify thousands of semantically meaningful safety-critical scenarios for a wide range of modern self-driving systems. Furthermore, we show that the robustness and safety of these systems can be further improved by training them with scenarios generated by AdvSim.
arxiv情報
著者 | Jingkang Wang,Ava Pun,James Tu,Sivabalan Manivasagam,Abbas Sadat,Sergio Casas,Mengye Ren,Raquel Urtasun |
発行日 | 2023-04-16 20:22:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI