要約
敵対的な例に対するディープ ニューラル ネットワーク (DNN) の脆弱性は、機械学習コミュニティで大きな注目を集めています。
この問題は、通常取得される損失ランドスケープの非平坦性と非平滑性に関連しています。
敵対的な例で強化されたトレーニング(別名、敵対的トレーニング)は、効果的な治療法と見なされます。
このホワイトペーパーでは、敵対的な例と良性の例の両方とほとんど知覚的に区別できないが、予測損失が非常に低いことを示すいくつかの共同の例を使用して、敵対的なトレーニングを強化できることを強調します。
したがって、敵対的ロバスト性の新しい最先端技術を達成するための新しい方法が提案されています。
コード: https://github.com/qizhangli/ST-AT.
要約(オリジナル)
The vulnerability of deep neural networks (DNNs) to adversarial examples has attracted great attention in the machine learning community. The problem is related to non-flatness and non-smoothness of normally obtained loss landscapes. Training augmented with adversarial examples (a.k.a., adversarial training) is considered as an effective remedy. In this paper, we highlight that some collaborative examples, nearly perceptually indistinguishable from both adversarial and benign examples yet show extremely lower prediction loss, can be utilized to enhance adversarial training. A novel method is therefore proposed to achieve new state-of-the-arts in adversarial robustness. Code: https://github.com/qizhangli/ST-AT.
arxiv情報
著者 | Qizhang Li,Yiwen Guo,Wangmeng Zuo,Hao Chen |
発行日 | 2023-02-10 08:25:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google