要約
ディープ ニューラル ネットワークの研究が進むにつれて、自動運転タスクでディープ畳み込みネットワークが実現可能になりました。
特に、運転タスクの自動化にエンド ツー エンドのニューラル ネットワーク モデルを採用するという新たな傾向があります。
ただし、以前の研究では、ディープ ニューラル ネットワーク分類器は敵対的攻撃に対して脆弱であることが示されています。
ただし、回帰タスクの場合、敵対的攻撃の影響はよくわかっていません。
この論文では、エンドツーエンドの自動運転システムに対する 2 つのホワイトボックス標的型攻撃を考案しました。
駆動システムは、画像を入力として取り、ステアリング角度を出力する回帰モデルを使用します。
私たちの攻撃は、入力画像を乱すことで自動運転システムの動作を操作します。
どちらの攻撃も、GPU を使用せずに CPU でリアルタイムに開始できます。
攻撃の効率は、Udacity で実施された実験を使用して説明されています。
デモビデオ: https://youtu.be/I0i8uN2oOP0.
要約(オリジナル)
As research in deep neural networks has advanced, deep convolutional networks have become feasible for automated driving tasks. In particular, there is an emerging trend of employing end-to-end neural network models for the automation of driving tasks. However, previous research has shown that deep neural network classifiers are vulnerable to adversarial attacks. For regression tasks, however, the effect of adversarial attacks is not as well understood. In this paper, we devise two white-box targeted attacks against end-to-end autonomous driving systems. The driving systems use a regression model that takes an image as input and outputs a steering angle. Our attacks manipulate the behavior of the autonomous driving system by perturbing the input image. Both attacks can be initiated in real-time on CPUs without employing GPUs. The efficiency of the attacks is illustrated using experiments conducted in Udacity. Demo video: https://youtu.be/I0i8uN2oOP0.
arxiv情報
著者 | Han Wu,Syed Yunas,Sareh Rowlands,Wenjie Ruan,Johan Wahlstrom |
発行日 | 2022-09-16 17:44:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google