要約
ディープラーニングの急速な進歩に伴い、モデルのロバスト性が重要な研究ホットスポットとなっている。既存の研究は主に画像分類タスクに焦点を当てており、モデルの予測ラベルを変更することを目的としている。出力の複雑さと、より深いネットワークアーキテクチャのため、セグメンテーションモデルに対する敵対的な例に関する研究は、特に普遍的な敵対的摂動に関しては、まだ限定的である。本論文では、セグメンテーションモデル用に設計された、二重特徴分離モジュールと低周波散乱モジュールを含む、新しい普遍的な敵対的攻撃手法を提案する。この2つのモジュールは、それぞれ画素空間と周波数空間における敵対的事例の学習を導く。実験により、本手法が最先端の手法を凌駕する高い攻撃成功率を達成し、異なるモデル間で強い移植性を示すことが実証された。
要約(オリジナル)
With the rapid advancement of deep learning, the model robustness has become a significant research hotspot, \ie, adversarial attacks on deep neural networks. Existing works primarily focus on image classification tasks, aiming to alter the model’s predicted labels. Due to the output complexity and deeper network architectures, research on adversarial examples for segmentation models is still limited, particularly for universal adversarial perturbations. In this paper, we propose a novel universal adversarial attack method designed for segmentation models, which includes dual feature separation and low-frequency scattering modules. The two modules guide the training of adversarial examples in the pixel and frequency space, respectively. Experiments demonstrate that our method achieves high attack success rates surpassing the state-of-the-art methods, and exhibits strong transferability across different models.
arxiv情報
著者 | Yufei Song,Ziqi Zhou,Minghui Li,Xianlong Wang,Hangtao Zhang,Menghao Deng,Wei Wan,Shengshan Hu,Leo Yu Zhang |
発行日 | 2025-01-03 15:39:46+00:00 |
arxivサイト | arxiv_id(pdf) |