要約
敵対的攻撃は、誤分類につながる知覚できない摂動を導入することで畳み込みニューラル ネットワークの脆弱性を悪用し、特徴表現と決定境界の弱点を露呈します。
この論文では、教師あり対比学習とマージンベースの対比損失を組み合わせて、敵対的な堅牢性を強化する新しいフレームワークを紹介します。
教師あり対照学習は、同じクラス内のサンプルの埋め込みをクラスタリングし、異なるクラスからそれらを分離することにより、特徴空間の構造を改善します。
サポート ベクター マシンからインスピレーションを得たマージンベースのコントラスト損失は、明示的な制約を強制して、明確に定義されたマージンを持つ堅牢な決定境界を作成します。
ResNet-18 バックボーンを備えた CIFAR-100 データセットの実験では、高速勾配符号法攻撃下での敵対的精度における堅牢性パフォーマンスの向上が実証されています。
要約(オリジナル)
Adversarial attacks exploit the vulnerabilities of convolutional neural networks by introducing imperceptible perturbations that lead to misclassifications, exposing weaknesses in feature representations and decision boundaries. This paper presents a novel framework combining supervised contrastive learning and margin-based contrastive loss to enhance adversarial robustness. Supervised contrastive learning improves the structure of the feature space by clustering embeddings of samples within the same class and separating those from different classes. Margin-based contrastive loss, inspired by support vector machines, enforces explicit constraints to create robust decision boundaries with well-defined margins. Experiments on the CIFAR-100 dataset with a ResNet-18 backbone demonstrate robustness performance improvements in adversarial accuracy under Fast Gradient Sign Method attacks.
arxiv情報
著者 | Longwei Wang,Navid Nayyem,Abdullah Rakin |
発行日 | 2024-12-27 17:14:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google