要約
最近の研究では、ディープ ニューラル ネットワーク (DNN) が敵対的攻撃に対して非常に脆弱であることが実証されています。
敵対的な攻撃から防御するために、多くの防御戦略が提案されていますが、その中で敵対的なトレーニングが最も効果的な戦略であることが実証されています。
ただし、敵対的トレーニングによって本来の精度が損なわれる場合があることが知られています。
そして、多くの研究は、問題を処理するためにモデル パラメーターを最適化することに焦点を当てています。
これまでのアプローチとは異なり、この論文では、モデル パラメーターではなく外部信号を使用することで敵対的ロバスト性を向上させる新しいアプローチを提案します。
提案手法では、元のコンテンツと重ならない画像の外側に、ブースター信号と呼ばれるよく最適化された汎用外部信号を注入します。
そして、敵対的な堅牢性と自然な精度の両方を向上させます。
ブースター信号は、パラメータのモデル化と並行して段階的に協調的に最適化されます。
実験結果は、ブースター信号が最近の最先端の敵対的トレーニング方法よりも自然な精度とロバストな精度の両方を向上させることができることを示しています。
また、ブースター信号の最適化は一般的であり、既存の敵対的トレーニング方法に採用できるほど柔軟です。
要約(オリジナル)
Recent works have demonstrated that deep neural networks (DNNs) are highly vulnerable to adversarial attacks. To defend against adversarial attacks, many defense strategies have been proposed, among which adversarial training has been demonstrated to be the most effective strategy. However, it has been known that adversarial training sometimes hurts natural accuracy. Then, many works focus on optimizing model parameters to handle the problem. Different from the previous approaches, in this paper, we propose a new approach to improve the adversarial robustness by using an external signal rather than model parameters. In the proposed method, a well-optimized universal external signal called a booster signal is injected into the outside of the image which does not overlap with the original content. Then, it boosts both adversarial robustness and natural accuracy. The booster signal is optimized in parallel to model parameters step by step collaboratively. Experimental results show that the booster signal can improve both the natural and robust accuracies over the recent state-of-the-art adversarial training methods. Also, optimizing the booster signal is general and flexible enough to be adopted on any existing adversarial training methods.
arxiv情報
著者 | Hong Joo Lee,Youngjoon Yu,Yong Man Ro |
発行日 | 2023-06-27 13:12:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google