要約
この作業では、多様体仮説を使用して、敵対的ロバスト性の新しいフレームワークを定式化します。
私たちのフレームワークは、敵対的な例から防御するための十分な条件を提供します。
変分推論と定式化を使用して、テスト時の防御方法を開発します。
開発されたアプローチは、マニホールド学習と変分推論を組み合わせて、敵対的トレーニングを必要とせずに敵対的ロバスト性を提供します。
攻撃者がテスト時の防御の存在を認識している場合でも、私たちのアプローチが敵対的な堅牢性を提供できることを示します。
さらに、私たちのアプローチは、変分オートエンコーダーのテスト時の防御メカニズムとしても機能します。
要約(オリジナル)
In this work, we formulate a novel framework of adversarial robustness using the manifold hypothesis. Our framework provides sufficient conditions for defending against adversarial examples. We develop a test-time defense method with variational inference and our formulation. The developed approach combines manifold learning with variational inference to provide adversarial robustness without the need for adversarial training. We show that our approach can provide adversarial robustness even if attackers are aware of the existence of test-time defense. In addition, our approach can also serve as a test-time defense mechanism for variational autoencoders.
arxiv情報
著者 | Zhaoyuan Yang,Zhiwei Xu,Jing Zhang,Richard Hartley,Peter Tu |
発行日 | 2022-11-17 18:50:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google