Investigating Adversarial Vulnerability and Implicit Bias through Frequency Analysis

要約

ニューラル ネットワークは、分類タスクにおける優れたパフォーマンスにもかかわらず、敵対的な攻撃、つまりモデルを欺くために設計された入力データの微妙な摂動に対して脆弱であることが知られています。
この研究では、これらの摂動と、勾配ベースのアルゴリズムでトレーニングされたニューラル ネットワークの暗黙的なバイアスとの関係を調査します。
この目的を達成するために、フーリエ変換のレンズを通してネットワークの暗黙的なバイアスを分析します。
具体的には、各入力画像とその敵対的に摂動されたバージョンのそれぞれについて、正確な分類または誤分類に必要な最小および最も重要な周波数を特定し、それらの間の相関関係を明らかにします。
この目的のために、数ある方法の中でも特に、高次元データセット間の非線形相関を検出できる新たに導入された技術を使用します。
私たちの結果は、フーリエ空間におけるネットワークの偏りと敵対的攻撃の標的周波数が高度に相関しているという経験的証拠を提供し、敵対的防御のための新しい潜在的な戦略を示唆しています。

要約(オリジナル)

Despite their impressive performance in classification tasks, neural networks are known to be vulnerable to adversarial attacks, subtle perturbations of the input data designed to deceive the model. In this work, we investigate the relation between these perturbations and the implicit bias of neural networks trained with gradient-based algorithms. To this end, we analyse the network’s implicit bias through the lens of the Fourier transform. Specifically, we identify the minimal and most critical frequencies necessary for accurate classification or misclassification respectively for each input image and its adversarially perturbed version, and uncover the correlation among those. To this end, among other methods, we use a newly introduced technique capable of detecting non-linear correlations between high-dimensional datasets. Our results provide empirical evidence that the network bias in Fourier space and the target frequencies of adversarial attacks are highly correlated and suggest new potential strategies for adversarial defence.

arxiv情報

著者 Lorenzo Basile,Nikos Karantzas,Alberto D’Onofrio,Luca Bortolussi,Alex Rodriguez,Fabio Anselmi
発行日 2024-07-17 16:34:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CR, cs.LG, stat.ML パーマリンク