Adversarial Examples Detection with Enhanced Image Difference Features based on Local Histogram Equalization

要約

タイトル: ローカルヒストグラム平坦化に基づく高精度画像差分特徴を利用したAdversarial Examplesの検出

要約:
– DNN(ディープニューラルネットワーク)は、最近多くの分野で大きな進歩を遂げているが、DNNは攻撃者による微小な変更であっても大きく誤認識してしまう「Adversarial Examples」に対して脆弱であることが示されている。
– これまでに、特徴圧縮や勾配マスキングなどの防御方法が提案されてきたが、これらの手法は特定の攻撃に対してしか機能せず、最新の未知の攻撃に対しては無力であることが多い。
– 検出モデルの評価指標の1つである、Adversarial Examplesの可視性の低さから、これらの攻撃と正常な例との高周波情報のローカル相関の違いは、両者を区別する有効な特徴として利用できる。
– そこで、高周波情報の強化戦略に基づくAdversarial Examples検出フレームワークを提案し、Adversarial Examplesと正規の例の特徴差を効果的に抽出し増幅させることができるとする。
– 実験結果は、このフレームワークのもと、すでに存在する検出モデルに特徴強化モジュールを追加することで、検出器の性能を向上させ、展開コストを削減できることを示している。

要約(オリジナル)

Deep Neural Networks (DNNs) have recently made significant progress in many fields. However, studies have shown that DNNs are vulnerable to adversarial examples, where imperceptible perturbations can greatly mislead DNNs even if the full underlying model parameters are not accessible. Various defense methods have been proposed, such as feature compression and gradient masking. However, numerous studies have proven that previous methods create detection or defense against certain attacks, which renders the method ineffective in the face of the latest unknown attack methods. The invisibility of adversarial perturbations is one of the evaluation indicators for adversarial example attacks, which also means that the difference in the local correlation of high-frequency information in adversarial examples and normal examples can be used as an effective feature to distinguish the two. Therefore, we propose an adversarial example detection framework based on a high-frequency information enhancement strategy, which can effectively extract and amplify the feature differences between adversarial examples and normal examples. Experimental results show that the feature augmentation module can be combined with existing detection models in a modular way under this framework. Improve the detector’s performance and reduce the deployment cost without modifying the existing detection model.

arxiv情報

著者 Zhaoxia Yin,Shaowei Zhu,Hang Su,Jianteng Peng,Wanli Lyu,Bin Luo
発行日 2023-05-08 03:14:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク