GSE: Group-wise Sparse and Explainable Adversarial Attacks

要約

まばらな敵対的攻撃は、多くの場合 $\ell_0$ ノルムによって正規化される最小限のピクセル摂動を通じてディープ ニューラル ネットワーク (DNN) を欺きます。
最近の取り組みでは、グループ単位の疎な敵対的攻撃を作成するために、この規範を核グループ規範などの構造的疎性正則化子に置き換えています。
したがって、結果として生じる摂動は説明可能であり、実質的に重要な関連性を保持しており、DNN のさらに大きな脆弱性を明らかにしています。
ただし、このような攻撃を作成するには、非凸対物レンズ内のピクセル グループの規範を計算する必要があるため、最適化の課題が生じます。
私たちは、画像の意味的に意味のある領域内でグループごとのスパース攻撃を生成する 2 フェーズのアルゴリズムを提示することで、この問題に対処します。
最初に、非凸計画法用に調整された $1/2-$quasinorm 近似演算子を使用して、準ノルムの敵対的損失を最適化します。
その後、アルゴリズムは摂動の大きさに $2-$norm 正則化を適用した予測ネステロフの加速勾配降下法に移行します。
CIFAR-10 および ImageNet データセットの厳密な評価では、グループごとのスパース性の顕著な増加が実証されています。たとえば、CIFAR-10 では $50.9\%$、ImageNet では $38.4\%$ (平均的なケース、標的型攻撃) です。
このパフォーマンスの向上により、計算時間が大幅に短縮され、説明可能性が向上し、$100\%$ 攻撃の成功率が向上しました。

要約(オリジナル)

Sparse adversarial attacks fool deep neural networks (DNNs) through minimal pixel perturbations, often regularized by the $\ell_0$ norm. Recent efforts have replaced this norm with a structural sparsity regularizer, such as the nuclear group norm, to craft group-wise sparse adversarial attacks. The resulting perturbations are thus explainable and hold significant practical relevance, shedding light on an even greater vulnerability of DNNs. However, crafting such attacks poses an optimization challenge, as it involves computing norms for groups of pixels within a non-convex objective. We address this by presenting a two-phase algorithm that generates group-wise sparse attacks within semantically meaningful areas of an image. Initially, we optimize a quasinorm adversarial loss using the $1/2-$quasinorm proximal operator tailored for non-convex programming. Subsequently, the algorithm transitions to a projected Nesterov’s accelerated gradient descent with $2-$norm regularization applied to perturbation magnitudes. Rigorous evaluations on CIFAR-10 and ImageNet datasets demonstrate a remarkable increase in group-wise sparsity, e.g., $50.9\%$ on CIFAR-10 and $38.4\%$ on ImageNet (average case, targeted attack). This performance improvement is accompanied by significantly faster computation times, improved explainability, and a $100\%$ attack success rate.

arxiv情報

著者 Shpresim Sadiku,Moritz Wagner,Sebastian Pokutta
発行日 2024-11-27 15:46:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.CV, cs.LG, math.OC パーマリンク