Adversarial Pruning: A Survey and Benchmark of Pruning Methods for Adversarial Robustness

要約

最近の研究では、ネットワークのサイズを縮小しながら、敵対的な例、つまり誤分類を誘発する適切に作成された入力を維持しながら、ネットワークのサイズを縮小するためのニューラルネットワークの剪定技術を提案しています。
これらの方法は、敵対的な剪定方法と呼ばれ、複雑で明確な設計を伴い、違いを分析し、公正かつ正確な比較を確立することを困難にします。
この作業では、現在の敵対的な剪定方法を調査し、2つの主要な側面に基づいて分類する新しい分類法を提案することにより、これらの問題を克服します。
そして詳細、剪定方法を定義します。
次に、現在の経験的分析の制限を強調し、それらに対処するための新しい公正な評価ベンチマークを提案します。
私たちは最終的に、現在の敵対的な剪定方法の経験的な再評価を実施し、結果を議論し、トップパフォーマンスの敵対的な剪定方法の共有特性と一般的な問題を強調します。
https://github.com/pralab/adversarialpruningbenchmarkで、公開されているベンチマークでの貢献を歓迎します

要約(オリジナル)

Recent work has proposed neural network pruning techniques to reduce the size of a network while preserving robustness against adversarial examples, i.e., well-crafted inputs inducing a misclassification. These methods, which we refer to as adversarial pruning methods, involve complex and articulated designs, making it difficult to analyze the differences and establish a fair and accurate comparison. In this work, we overcome these issues by surveying current adversarial pruning methods and proposing a novel taxonomy to categorize them based on two main dimensions: the pipeline, defining when to prune; and the specifics, defining how to prune. We then highlight the limitations of current empirical analyses and propose a novel, fair evaluation benchmark to address them. We finally conduct an empirical re-evaluation of current adversarial pruning methods and discuss the results, highlighting the shared traits of top-performing adversarial pruning methods, as well as common issues. We welcome contributions in our publicly-available benchmark at https://github.com/pralab/AdversarialPruningBenchmark

arxiv情報

著者 Giorgio Piras,Maura Pintor,Ambra Demontis,Battista Biggio,Giorgio Giacinto,Fabio Roli
発行日 2025-05-30 15:21:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.CV, cs.LG パーマリンク