要約
自律車両(AVS)の知覚モジュールは、攻撃の影響を受けやすくなり、敵対的な入力を通じてニューラルネットワークの脆弱性を活用し、それによってAIの安全性が損なわれます。
一部の研究では、秘密の敵対的なサンプルの作成に焦点を当てていますが、既存のグローバルノイズ技術は検出可能であり、人間の視覚システムを欺くのが困難です。
このペーパーでは、新しい敵対的な攻撃方法であるAdvswapを紹介します。Advswapは、ウェーブレットベースの高頻度情報スワッピングを創造的に利用して、秘密の敵対サンプルを生成し、カメラを欺いています。
ADVSWAPは、選択的な高周波情報交換に反転性ニューラルネットワークを採用し、前方の伝播とデータの完全性の両方を維持します。
このスキームは、元のラベルデータを効果的に削除し、ガイダンス画像データを組み込み、隠された堅牢な敵対サンプルを生成します。
GTSRBおよびNuscenesデータセットの実験的評価と比較は、ADVSWAPが一般的なトラフィック目標に隠された攻撃を行うことができることを示しています。
生成された敵対的なサンプルは、人間とアルゴリズムによって知覚することも困難です。
一方、この方法には、強い攻撃の堅牢性と攻撃移動性があります。
要約(オリジナル)
Perception module of Autonomous vehicles (AVs) are increasingly susceptible to be attacked, which exploit vulnerabilities in neural networks through adversarial inputs, thereby compromising the AI safety. Some researches focus on creating covert adversarial samples, but existing global noise techniques are detectable and difficult to deceive the human visual system. This paper introduces a novel adversarial attack method, AdvSwap, which creatively utilizes wavelet-based high-frequency information swapping to generate covert adversarial samples and fool the camera. AdvSwap employs invertible neural network for selective high-frequency information swapping, preserving both forward propagation and data integrity. The scheme effectively removes the original label data and incorporates the guidance image data, producing concealed and robust adversarial samples. Experimental evaluations and comparisons on the GTSRB and nuScenes datasets demonstrate that AdvSwap can make concealed attacks on common traffic targets. The generates adversarial samples are also difficult to perceive by humans and algorithms. Meanwhile, the method has strong attacking robustness and attacking transferability.
arxiv情報
著者 | Yuanhao Huang,Qinfan Zhang,Jiandong Xing,Mengyue Cheng,Haiyang Yu,Yilong Ren,Xiao Xiong |
発行日 | 2025-02-12 13:05:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google