要約
敵対的攻撃に対する深層学習モデルの堅牢性は依然として極めて重要な懸案事項です。
この研究は、敵対的攻撃の伝達可能性の側面についての徹底的なレビューを初めて示しています。
敵対的攻撃の伝達可能性を高めるために開発されたさまざまな方法論を体系的に分類し、批判的に評価します。
この研究には、生成構造、意味的類似性、勾配編集、ターゲット変更、アンサンブル アプローチなど、さまざまな手法が含まれています。
同時に、このペーパーではベンチマーク フレームワーク \textit{TAA-Bench} を紹介します。これは敵対的攻撃の伝達性に関する 10 の主要な方法論を統合し、それによって多様なモデル アーキテクチャにわたる比較分析のための標準化された体系的なプラットフォームを提供します。
包括的な精査を通じて、各手法の有効性と制約を明らかにし、その根底にある運用原理と実際の有用性を明らかにします。
このレビューは、敵対的移転可能性の複雑な領域を図示し、この重要な分野における将来の探求の基礎を築くため、この分野の学者と実務家の両方にとって典型的なリソースとなるよう努めています。
関連するコードベースには、https://github.com/KxPlaug/TAA-Bench からアクセスできます。
要約(オリジナル)
The robustness of deep learning models against adversarial attacks remains a pivotal concern. This study presents, for the first time, an exhaustive review of the transferability aspect of adversarial attacks. It systematically categorizes and critically evaluates various methodologies developed to augment the transferability of adversarial attacks. This study encompasses a spectrum of techniques, including Generative Structure, Semantic Similarity, Gradient Editing, Target Modification, and Ensemble Approach. Concurrently, this paper introduces a benchmark framework \textit{TAA-Bench}, integrating ten leading methodologies for adversarial attack transferability, thereby providing a standardized and systematic platform for comparative analysis across diverse model architectures. Through comprehensive scrutiny, we delineate the efficacy and constraints of each method, shedding light on their underlying operational principles and practical utility. This review endeavors to be a quintessential resource for both scholars and practitioners in the field, charting the complex terrain of adversarial transferability and setting a foundation for future explorations in this vital sector. The associated codebase is accessible at: https://github.com/KxPlaug/TAA-Bench
arxiv情報
著者 | Zhibo Jin,Jiayu Zhang,Zhiyu Zhu,Huaming Chen |
発行日 | 2024-02-08 12:49:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google