Adversarial Driving: Attacking End-to-End Autonomous Driving

要約

ディープ ニューラル ネットワークの研究が進むにつれて、自動運転タスクでディープ畳み込みネットワークが実現可能になります。
運転タスクの自動化にエンド ツー エンド モデルを採用するという新たな傾向があります。
ただし、以前の研究では、ディープ ニューラル ネットワークは分類タスクにおける敵対的攻撃に対して脆弱であることが明らかになりました。
自動運転などの回帰タスクの場合、これらの攻撃の影響はほとんど調査されていません。
この研究では、エンドツーエンドの自動運転システムに対する 2 つのホワイトボックス標的型攻撃を考案しました。
運転モデル​​は画像を入力として取り、ステアリング角度を出力します。
私たちの攻撃は、入力画像を乱すだけで自動運転システムの動作を操作できます。
どちらの攻撃も、GPU を使用せずに CPU でリアルタイムに開始できます。
この研究は、安全性が重要なシステムにおけるエンド ツー エンド モデルの適用に関する懸念を提起することを目的としています。

要約(オリジナル)

As the research in deep neural networks advances, deep convolutional networks become feasible for automated driving tasks. There is an emerging trend of employing end-to-end models in the automation of driving tasks. However, previous research unveils that deep neural networks are vulnerable to adversarial attacks in classification tasks. While for regression tasks such as autonomous driving, the effect of these attacks remains rarely explored. In this research, we devise two white-box targeted attacks against end-to-end autonomous driving systems. The driving model takes an image as input and outputs the steering angle. Our attacks can manipulate the behavior of the autonomous driving system only by perturbing the input image. Both attacks can be initiated in real-time on CPUs without employing GPUs. This research aims to raise concerns over applications of end-to-end models in safety-critical systems.

arxiv情報

著者 Han Wu,Syed Yunas,Sareh Rowlands,Wenjie Ruan,Johan Wahlstrom
発行日 2022-08-24 16:42:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク