Generating Transferable Adversarial Simulation Scenarios for Self-Driving via Neural Rendering

要約

自動運転ソフトウェアのパイプラインには、かなりの数の訓練例から学習されるコンポーネントが含まれているが、システム全体の安全性と汎化性能を評価することは依然として困難である。自律走行車の実世界配備の規模を拡大するとともに、運転ポリシーが失敗するシミュレーションシナリオを自動的に見つけることが極めて重要である。我々は、公称軌道からの最大摂動を目的とした最適制御問題を解くことにより、自律走行の敵対的シミュレーションシナリオを効率的に生成する手法を提案する。 画像ベースの運転方針が与えられた場合、我々は、配備シーンのニューラルレンダリング表現に新しいオブジェクトを注入し、そのテクスチャを最適化することで、方針に対する敵対的なセンサー入力を生成できることを示す。我々は、純粋にニューラルレンダラー(代替シーン)において発見された敵対的シナリオは、さらなる最適化なしに、多くの場合、配備シーンにうまく転送できることを実証する。この転送は、学習されたサロゲートシーンが配備シーンに十分に近ければ、シミュレーション環境と実環境の両方で起こることを実証する。

要約(オリジナル)

Self-driving software pipelines include components that are learned from a significant number of training examples, yet it remains challenging to evaluate the overall system’s safety and generalization performance. Together with scaling up the real-world deployment of autonomous vehicles, it is of critical importance to automatically find simulation scenarios where the driving policies will fail. We propose a method that efficiently generates adversarial simulation scenarios for autonomous driving by solving an optimal control problem that aims to maximally perturb the policy from its nominal trajectory. Given an image-based driving policy, we show that we can inject new objects in a neural rendering representation of the deployment scene, and optimize their texture in order to generate adversarial sensor inputs to the policy. We demonstrate that adversarial scenarios discovered purely in the neural renderer (surrogate scene) can often be successfully transferred to the deployment scene, without further optimization. We demonstrate this transfer occurs both in simulated and real environments, provided the learned surrogate scene is sufficiently close to the deployment scene.

arxiv情報

著者 Yasasa Abeysirigoonawardena,Kevin Xie,Chuhan Chen,Salar Hosseini,Ruiting Chen,Ruiqi Wang,Florian Shkurti
発行日 2023-11-02 20:54:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク