DANAA: Towards transferable attacks with double adversarial neuron attribution

要約

ディープ ニューラル ネットワークは多くの分野で優れた成果を上げていますが、攻撃サンプルによる干渉を受けやすく、誤った判断を引き起こします。
機能レベル攻撃は、効果的な攻撃タイプの 1 つであり、隠れ層で学習された機能をターゲットにして、さまざまなモデル間での伝達性を向上させます。
しかし、伝達性はニューロン重要度の推定結果によって大きく影響を受けていることが観察されます。
この論文では、より正確な特徴重要度推定を得るために、「DANAA」と呼ばれる二重敵対的ニューロン属性攻撃法を提案する。
私たちの方法では、モデル出力は敵対的非線形パスに基づいて中間層に帰属します。
目標は、個々のニューロンの重量を測定し、伝達性にとってより重要な特徴を保持することです。
私たちは、この手法の最先端のパフォーマンスを実証するために、ベンチマーク データセットに対して広範な実験を実施しました。
私たちのコードはhttps://github.com/Davidjinzb/DANAAから入手できます。

要約(オリジナル)

While deep neural networks have excellent results in many fields, they are susceptible to interference from attacking samples resulting in erroneous judgments. Feature-level attacks are one of the effective attack types, which targets the learnt features in the hidden layers to improve its transferability across different models. Yet it is observed that the transferability has been largely impacted by the neuron importance estimation results. In this paper, a double adversarial neuron attribution attack method, termed `DANAA’, is proposed to obtain more accurate feature importance estimation. In our method, the model outputs are attributed to the middle layer based on an adversarial non-linear path. The goal is to measure the weight of individual neurons and retain the features that are more important towards transferability. We have conducted extensive experiments on the benchmark datasets to demonstrate the state-of-the-art performance of our method. Our code is available at: https://github.com/Davidjinzb/DANAA

arxiv情報

著者 Zhibo Jin,Zhiyu Zhu,Xinyi Wang,Jiayu Zhang,Jun Shen,Huaming Chen
発行日 2023-10-16 14:11:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク