Robust Proxy: Improving Adversarial Robustness by Robust Proxy Learning

要約

最近、ディープ ニューラル ネットワークは非常に脆弱で、敵対的な攻撃によって簡単に破られることが広く知られるようになりました。
敵対的な脆弱性を軽減するために、多くの防御アルゴリズムが提案されています。
最近、敵対的堅牢性を向上させるために、多くの研究が、識別特徴に対してより直接的な監視を課すことによって特徴表現を強化しようと試みている。
しかし、既存のアプローチでは、敵対的にロバストな特徴表現の学習についての理解が不足しています。
この論文では、ロバスト プロキシ学習と呼ばれる新しいトレーニング フレームワークを提案します。
提案された方法では、モデルはロバストなプロキシを使用してロバストな特徴表現を明示的に学習します。
この目的を達成するために、まず、クラスごとのロバストな摂動を追加することで、クラスを代表するロバストな特徴を生成できることを実証します。
次に、クラス代表特徴を堅牢なプロキシとして使用します。
クラスごとに堅牢な特徴を使用すると、モデルは、提案された堅牢なプロキシ学習フレームワークを通じて、敵対的に堅牢な特徴を明示的に学習します。
広範な実験を通じて、私たちは堅牢な特徴を手動で生成できること、そして私たちが提案した学習フレームワークが DNN の堅牢性を高めることができることを検証しました。

要約(オリジナル)

Recently, it has been widely known that deep neural networks are highly vulnerable and easily broken by adversarial attacks. To mitigate the adversarial vulnerability, many defense algorithms have been proposed. Recently, to improve adversarial robustness, many works try to enhance feature representation by imposing more direct supervision on the discriminative feature. However, existing approaches lack an understanding of learning adversarially robust feature representation. In this paper, we propose a novel training framework called Robust Proxy Learning. In the proposed method, the model explicitly learns robust feature representations with robust proxies. To this end, firstly, we demonstrate that we can generate class-representative robust features by adding class-wise robust perturbations. Then, we use the class representative features as robust proxies. With the class-wise robust features, the model explicitly learns adversarially robust features through the proposed robust proxy learning framework. Through extensive experiments, we verify that we can manually generate robust features, and our proposed learning framework could increase the robustness of the DNNs.

arxiv情報

著者 Hong Joo Lee,Yong Man Ro
発行日 2023-06-27 13:22:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク