要約
敵対的な例を理解することは、モデルを欺く知覚できない摂動を引き起こすため、モデルの堅牢性を向上させるために非常に重要です。
したがって、効果的な敵対的な例は、特異点を取り除くことで、より堅牢なモデルをトレーニングできる可能性をもたらします。
我々は、敵対的な生成を連続プロセスとして扱い、生成器のダイナミクスをシミュレートするために神経常微分方程式 (NODE) を使用する新しいアプローチである NODE-AdvGAN を提案します。
従来の勾配ベースの手法の反復的な性質を模倣することにより、NODE-AdvGAN は、良性の画像に追加された場合に高い知覚的類似性を維持する、よりスムーズで正確な摂動を生成します。
また、新しいトレーニング戦略 NODE-AdvGAN-T も提案します。これは、トレーニング中にノイズ パラメーターを効果的に調整することで、ブラック ボックス攻撃の伝達可能性を強化します。
実験では、NODE-AdvGAN と NODE-AdvGAN-T が、従来の GAN ベースの方法よりも優れた知覚品質を維持しながら、より高い攻撃成功率を達成する、より効果的な敵対的な例を生成することが実証されています。
要約(オリジナル)
Understanding adversarial examples is crucial for improving the model’s robustness, as they introduce imperceptible perturbations that deceive models. Effective adversarial examples, therefore, offer the potential to train more robust models by removing their singularities. We propose NODE-AdvGAN, a novel approach that treats adversarial generation as a continuous process and employs a Neural Ordinary Differential Equation (NODE) for simulating the dynamics of the generator. By mimicking the iterative nature of traditional gradient-based methods, NODE-AdvGAN generates smoother and more precise perturbations that preserve high perceptual similarity when added to benign images. We also propose a new training strategy, NODE-AdvGAN-T, which enhances transferability in black-box attacks by effectively tuning noise parameters during training. Experiments demonstrate that NODE-AdvGAN and NODE-AdvGAN-T generate more effective adversarial examples that achieve higher attack success rates while preserving better perceptual quality than traditional GAN-based methods.
arxiv情報
著者 | Xinheng Xie,Yue Wu,Cuiyu He |
発行日 | 2024-12-04 18:36:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google