Enhancing Adversarial Robustness via Score-Based Optimization

要約

敵対的攻撃は、わずかな摂動を引き起こすことでディープ ニューラル ネットワーク分類器を誤解させる可能性があります。
これらの攻撃の影響を軽減できるアルゴリズムを開発することは、人工知能の安全な使用を確保するために重要です。
最近の研究では、スコアベースの拡散モデルが敵対的防御に効果的であることが示唆されています。
しかし、既存の拡散ベースの防御は、拡散モデルの逆確率微分方程式の逐次シミュレーションに依存しているため、計算効率が悪く、最適とはいえない結果が得られます。
この論文では、ScoreOpt という名前の新しい敵対的防御スキームを紹介します。これは、スコアベースの事前分布によって導かれる方向で、テスト時に敵対的サンプルを元のクリーンなデータに向けて最適化します。
CIFAR10、CIFAR100、ImageNet を含む複数のデータセットに対して包括的な実験を実施します。
私たちの実験結果は、私たちのアプローチが堅牢性パフォーマンスと推論速度の両方の点で既存の敵対的防御よりも優れていることを示しています。

要約(オリジナル)

Adversarial attacks have the potential to mislead deep neural network classifiers by introducing slight perturbations. Developing algorithms that can mitigate the effects of these attacks is crucial for ensuring the safe use of artificial intelligence. Recent studies have suggested that score-based diffusion models are effective in adversarial defenses. However, existing diffusion-based defenses rely on the sequential simulation of the reversed stochastic differential equations of diffusion models, which are computationally inefficient and yield suboptimal results. In this paper, we introduce a novel adversarial defense scheme named ScoreOpt, which optimizes adversarial samples at test-time, towards original clean data in the direction guided by score-based priors. We conduct comprehensive experiments on multiple datasets, including CIFAR10, CIFAR100 and ImageNet. Our experimental results demonstrate that our approach outperforms existing adversarial defenses in terms of both robustness performance and inference speed.

arxiv情報

著者 Boya Zhang,Weijian Luo,Zhihua Zhang
発行日 2023-10-05 13:54:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG パーマリンク