要約
タイトル:Adversarially Robust Continual Learningへの道
要約:
– 継続的学習によって訓練されたモデルは、標準の教師あり学習と比較可能な性能を発揮することがわかっている。
– また、継続的学習モデルの柔軟性は、実世界における広範な応用を可能にする。
– しかし、ディープラーニングモデルは、敵対的な攻撃に対して脆弱であることが示されている。
– 標準の教師あり学習の文脈におけるモデルの堅牢性に関する多くの研究がある一方で、継続的学習を敵対的な攻撃から保護することに関する研究はまだ行われていない。
– この研究のギャップを埋めるために、私たちはAdversarially Robust Continual Learningについて初めて研究し、Task-Aware Boundary Augmentation(TABA)という新しい手法を提案する。
– CIFAR-10およびCIFAR-100での広範な実験により、敵対的なトレーニングとTABAが敵対的な攻撃から防御することの有効性を示す。
要約(オリジナル)
Recent studies show that models trained by continual learning can achieve the comparable performances as the standard supervised learning and the learning flexibility of continual learning models enables their wide applications in the real world. Deep learning models, however, are shown to be vulnerable to adversarial attacks. Though there are many studies on the model robustness in the context of standard supervised learning, protecting continual learning from adversarial attacks has not yet been investigated. To fill in this research gap, we are the first to study adversarial robustness in continual learning and propose a novel method called \textbf{T}ask-\textbf{A}ware \textbf{B}oundary \textbf{A}ugmentation (TABA) to boost the robustness of continual learning models. With extensive experiments on CIFAR-10 and CIFAR-100, we show the efficacy of adversarial training and TABA in defending adversarial attacks.
arxiv情報
著者 | Tao Bai,Chen Chen,Lingjuan Lyu,Jun Zhao,Bihan Wen |
発行日 | 2023-03-31 01:55:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI