Learning When to Use Adaptive Adversarial Image Perturbations against Autonomous Vehicles

要約

カメラ画像を使用した物体検出のためのディープ ニューラル ネットワーク (DNN) モデルは、自動運転車で広く採用されています。
ただし、DNN モデルは敵対的な画像摂動の影響を受けやすいことが示されています。
敵対的画像摂動を生成する既存の方法では、最適化は、画像摂動を生成する決定変数として各着信画像フレームを取ります。
したがって、新しい画像が与えられると、独立した最適化の間に学習がないため、通常は計算コストの高い最適化を最初からやり直す必要があります。
自動運転車の基礎となる物理的ダイナミクス、その使命、および環境を考慮しながら、オンライン画像ストリームを攻撃するためのアプローチはほとんど開発されていません。
敵対的摂動を生成する攻撃者の能力を監視するマルチレベルの確率的最適化フレームワークを提案します。
この能力レベルに基づいて、二分決定攻撃/非攻撃が導入され、攻撃者の有効性が強化されます。
視覚誘導自動運転車のシミュレーションと、オフィス環境での小型屋内ドローンによる実際のテストを使用して、提案されたマルチレベルのイメージ攻撃フレームワークを評価します。
結果は、与えられた状態推定に基づいて攻撃者が熟練しているときを監視しながら、リアルタイムで画像攻撃を生成するこの方法の能力を示しています。

要約(オリジナル)

The deep neural network (DNN) models for object detection using camera images are widely adopted in autonomous vehicles. However, DNN models are shown to be susceptible to adversarial image perturbations. In the existing methods of generating the adversarial image perturbations, optimizations take each incoming image frame as the decision variable to generate an image perturbation. Therefore, given a new image, the typically computationally-expensive optimization needs to start over as there is no learning between the independent optimizations. Very few approaches have been developed for attacking online image streams while considering the underlying physical dynamics of autonomous vehicles, their mission, and the environment. We propose a multi-level stochastic optimization framework that monitors an attacker’s capability of generating the adversarial perturbations. Based on this capability level, a binary decision attack/not attack is introduced to enhance the effectiveness of the attacker. We evaluate our proposed multi-level image attack framework using simulations for vision-guided autonomous vehicles and actual tests with a small indoor drone in an office environment. The results show our method’s capability to generate the image attack in real-time while monitoring when the attacker is proficient given state estimates.

arxiv情報

著者 Hyung-Jin Yoon,Hamidreza Jafarnejadsani,Petros Voulgaris
発行日 2023-03-15 20:30:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク