Improving adversarial robustness by putting more regularizations on less robust samples

要約

タイトル:「より弱いサンプルにより多くの正則化を行うことによる敵対的な強靭性の向上」

要約:
– 敵対的トレーニングを用いて、敵対攻撃に対する強靭性を向上させることが多くの注目を集めています。
– 本論文では、既存のアルゴリズムよりも優れた、理論的によく動機づけられた新しい敵対的トレーニングアルゴリズムを提案しています。
– このアルゴリズムの新しい特徴は、敵対攻撃に弱いデータに対して他の正則化アルゴリズムよりも多くの正則化を適用することです。
– 理論的には、提案されたアルゴリズムは、新たに導出された強靭リスクの上限から動機づけられた正則化された経験的リスクを最小化するアルゴリズムとして理解できます。
– 数値実験は、提案されたアルゴリズムが、汎化性能(例に対する精度)と強靭性(敵対攻撃に対する精度)を同時に向上させ、最先端の性能を実現することを示しています。

要約(オリジナル)

Adversarial training, which is to enhance robustness against adversarial attacks, has received much attention because it is easy to generate human-imperceptible perturbations of data to deceive a given deep neural network. In this paper, we propose a new adversarial training algorithm that is theoretically well motivated and empirically superior to other existing algorithms. A novel feature of the proposed algorithm is to apply more regularization to data vulnerable to adversarial attacks than other existing regularization algorithms do. Theoretically, we show that our algorithm can be understood as an algorithm of minimizing the regularized empirical risk motivated from a newly derived upper bound of the robust risk. Numerical experiments illustrate that our proposed algorithm improves the generalization (accuracy on examples) and robustness (accuracy on adversarial attacks) simultaneously to achieve the state-of-the-art performance.

arxiv情報

著者 Dongyoon Yang,Insung Kong,Yongdai Kim
発行日 2023-05-02 07:18:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, stat.ML パーマリンク