要約
ディープ ニューラル ネットワークは、多くのコンピューター ビジョン タスクに適用され、最先端のパフォーマンスを実現しています。
ただし、DNN が人間の知覚できない敵対的なノイズを自然な例に追加する敵対的な例を予測すると、誤分類が発生します。
これにより、セキュリティが重要な分野での DNN の適用が制限されます。
この問題を軽減するために、最初に、敵対的例と自然例の両方の潜在的な特徴の経験的分析を行い、自然例の類似度マトリックスが敵対的例の類似性マトリックスよりもコンパクトであることを発見しました。
この観察に動機付けられて、我々は \textbf{L}atent \textbf{F}eature \textbf{R}elation \textbf{C}onsistency (\textbf{LFRC}) を提案します。
自然の例と一致している必要があります。
重要なのは、私たちの LFRC は以前の方法と直交しており、それらと簡単に組み合わせてさらなる改善を達成できることです。
LFRC の有効性を実証するために、ベンチマーク データセットでさまざまなニューラル ネットワークを使用して広範な実験を行います。
たとえば、CIFAR10 の AutoAttack に対して、LFRC は AT と比較して 0.78\% の改善、TRADES と比較して 1.09\% の改善をもたらすことができます。
コードは https://github.com/liuxingbin/LFRC で入手できます。
要約(オリジナル)
Deep neural networks have been applied in many computer vision tasks and achieved state-of-the-art performance. However, misclassification will occur when DNN predicts adversarial examples which add human-imperceptible adversarial noise to natural examples. This limits the application of DNN in security-critical fields. To alleviate this problem, we first conducted an empirical analysis of the latent features of both adversarial and natural examples and found the similarity matrix of natural examples is more compact than those of adversarial examples. Motivated by this observation, we propose \textbf{L}atent \textbf{F}eature \textbf{R}elation \textbf{C}onsistency (\textbf{LFRC}), which constrains the relation of adversarial examples in latent space to be consistent with the natural examples. Importantly, our LFRC is orthogonal to the previous method and can be easily combined with them to achieve further improvement. To demonstrate the effectiveness of LFRC, we conduct extensive experiments using different neural networks on benchmark datasets. For instance, LFRC can bring 0.78\% further improvement compared to AT, and 1.09\% improvement compared to TRADES, against AutoAttack on CIFAR10. Code is available at https://github.com/liuxingbin/LFRC.
arxiv情報
著者 | Xingbin Liu,Huafeng Kuang,Hong Liu,Xianming Lin,Yongjian Wu,Rongrong Ji |
発行日 | 2023-03-29 13:50:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google