要約
分類タスクでの印象的なパフォーマンスにもかかわらず、ニューラルネットワークは敵対的な攻撃、モデルを欺くために設計された入力データの微妙な摂動に対して脆弱であることが知られています。
この作業では、これらの摂動と勾配ベースのアルゴリズムで訓練されたニューラルネットワークの暗黙的なバイアスとの相関関係を調査します。
この目的のために、フーリエ変換のレンズを介したネットワークの暗黙的なバイアスの表現を分析します。
具体的には、各画像の正確な分類に必要な最小限の必須周波数と、敵対的に摂動したカウンターパートの誤分類を促進する周波数を計算することにより、暗黙のバイアスと敵対的攻撃のユニークな指紋を特定します。
このアプローチにより、これらの必須周波数間の相関を明らかにして分析し、ネットワークのバイアスが敵対的攻撃によって活用される周波数コンポーネントとどのように整合または対照されるかを正確にマップすることができます。
この目的のために、他の方法の中でも、高次元データセット間の非線形相関を検出できる新しく導入された手法を使用します。
我々の結果は、フーリエ空間と敵対的攻撃のターゲット周波数におけるネットワークバイアスが高度に相関しており、敵対的防御のための新しい潜在的な戦略を示唆しているという経験的証拠を提供します。
要約(オリジナル)
Despite their impressive performance in classification tasks, neural networks are known to be vulnerable to adversarial attacks, subtle perturbations of the input data designed to deceive the model. In this work, we investigate the correlation between these perturbations and the implicit bias of neural networks trained with gradient-based algorithms. To this end, we analyse a representation of the network’s implicit bias through the lens of the Fourier transform. Specifically, we identify unique fingerprints of implicit bias and adversarial attacks by calculating the minimal, essential frequencies needed for accurate classification of each image, as well as the frequencies that drive misclassification in its adversarially perturbed counterpart. This approach enables us to uncover and analyse the correlation between these essential frequencies, providing a precise map of how the network’s biases align or contrast with the frequency components exploited by adversarial attacks. To this end, among other methods, we use a newly introduced technique capable of detecting nonlinear correlations between high-dimensional datasets. Our results provide empirical evidence that the network bias in Fourier space and the target frequencies of adversarial attacks are highly correlated and suggest new potential strategies for adversarial defence.
arxiv情報
著者 | Lorenzo Basile,Nikos Karantzas,Alberto d’Onofrio,Luca Manzoni,Luca Bortolussi,Alex Rodriguez,Fabio Anselmi |
発行日 | 2025-04-08 14:29:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google