Attacking Motion Planners Using Adversarial Perception Errors

要約

自動運転 (AD) システムは、モジュール形式で構築およびテストされることが多く、さまざまなモジュールのパフォーマンスがタスク固有のメトリクスを使用して測定されます。
これらのメトリクスは、各モジュールの下流への影響とシステム全体のパフォーマンスを把握できるように選択する必要があります。
たとえば、知覚品質が高ければ、予測と計画を安全に実行できるはずです。
これは一般的には真実ですが、ここでは、さまざまな知覚品質指標で非常に高いスコアを獲得しながらも計画の失敗につながるプランナー入力を構築することが可能であることを示します。
画像分類器に対する敵対的攻撃に似て、このような入力を \textbf{敵対的知覚エラー} と呼び、単純な境界攻撃アルゴリズムを使用して体系的に構築できることを示します。
CARLA シミュレーターを使用して、都市および高速道路のいくつかの運転シナリオで 2 つの異なるブラック ボックス プランナーに対する攻撃を発見することで、このアルゴリズムの有効性を実証します。
最後に、これらの攻撃の特性を分析し、それらがプランナーの入力空間内で分離されていることを示し、AD システムの展開とテストに対するそれらの影響について説明します。

要約(オリジナル)

Autonomous driving (AD) systems are often built and tested in a modular fashion, where the performance of different modules is measured using task-specific metrics. These metrics should be chosen so as to capture the downstream impact of each module and the performance of the system as a whole. For example, high perception quality should enable prediction and planning to be performed safely. Even though this is true in general, we show here that it is possible to construct planner inputs that score very highly on various perception quality metrics but still lead to planning failures. In an analogy to adversarial attacks on image classifiers, we call such inputs \textbf{adversarial perception errors} and show they can be systematically constructed using a simple boundary-attack algorithm. We demonstrate the effectiveness of this algorithm by finding attacks for two different black-box planners in several urban and highway driving scenarios using the CARLA simulator. Finally, we analyse the properties of these attacks and show that they are isolated in the input space of the planner, and discuss their implications for AD system deployment and testing.

arxiv情報

著者 Jonathan Sadeghi,Nicholas A. Lord,John Redford,Romain Mueller
発行日 2023-11-21 16:51:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.CV, cs.LG, cs.RO パーマリンク