GReAT: A Graph Regularized Adversarial Training Method

要約

本稿では、深層学習モデルのロバストな分類性能を強化するために設計された新しい正則化手法であるGReAT(Graph Regularized Adversarial Training)を紹介する。モデルを惑わす可能性のある微妙な摂動によって特徴付けられる敵対的な例は、機械学習において重要な課題となっている。敵対的な学習は、このような攻撃に対する防御には効果的ですが、多くの場合、基礎となるデータ構造を見落としてしまいます。これに対してGReATは、グラフベースの正則化を敵対的学習プロセスに統合し、データ固有の構造を活用してモデルの頑健性を強化する。GReATは、学習中にグラフ情報を組み込むことで、敵対的な攻撃から防御し、未知のデータに対する汎化を向上させる。ベンチマークデータセットを用いた広範な評価により、GReATはロバスト性において最先端の手法を凌駕し、分類精度の顕著な向上を達成したことが実証された。具体的には、2番目に優れた手法と比較して、GReATはFGSM攻撃に対するCIFAR10で約4.87%、FGSM攻撃に対するSVHNで約10.57%の性能向上を達成しています。さらに、CIFAR10では、GReATはPGD攻撃に対して約11.05%の性能向上を示し、SVHNではPGD攻撃に対して5.54%の性能向上を示しています。本論文では、数値結果や既存のアプローチとの比較を含め、提案された方法論に関する詳細な洞察を提供し、ディープラーニングモデルの性能を向上させる上でGReATが大きな影響を与えることを強調します。

要約(オリジナル)

This paper presents GReAT (Graph Regularized Adversarial Training), a novel regularization method designed to enhance the robust classification performance of deep learning models. Adversarial examples, characterized by subtle perturbations that can mislead models, pose a significant challenge in machine learning. Although adversarial training is effective in defending against such attacks, it often overlooks the underlying data structure. In response, GReAT integrates graph based regularization into the adversarial training process, leveraging the data’s inherent structure to enhance model robustness. By incorporating graph information during training, GReAT defends against adversarial attacks and improves generalization to unseen data. Extensive evaluations on benchmark datasets demonstrate that GReAT outperforms state of the art methods in robustness, achieving notable improvements in classification accuracy. Specifically, compared to the second best methods, GReAT achieves a performance increase of approximately 4.87% for CIFAR10 against FGSM attack and 10.57% for SVHN against FGSM attack. Additionally, for CIFAR10, GReAT demonstrates a performance increase of approximately 11.05% against PGD attack, and for SVHN, a 5.54% increase against PGD attack. This paper provides detailed insights into the proposed methodology, including numerical results and comparisons with existing approaches, highlighting the significant impact of GReAT in advancing the performance of deep learning models.

arxiv情報

著者 Samet Bayram,Kenneth Barner
発行日 2024-05-03 16:23:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク