Existence and Minimax Theorems for Adversarial Surrogate Risks in Binary Classification

要約

タイトル: 二値分類における敵対的サロゲートリスクの存在と最小値定理
要約:
– 敵対的学習は、敵対的攻撃に対して堅牢な学習法の一つですが、理論的にはよく理解されていません。
– 私たちは、敵対的サロゲートリスクについて、存在、正則性、最小値の定理を証明しました。
– これにより、以前の研究での実証的な観察結果を説明し、新しいアルゴリズム開発の方向性を示唆しています。
– さらに、私たちの結果は、敵対的分類リスクの存在と最小値定理をサロゲートリスクに拡張するものです。

要約(オリジナル)

Adversarial training is one of the most popular methods for training methods robust to adversarial attacks, however, it is not well-understood from a theoretical perspective. We prove and existence, regularity, and minimax theorems for adversarial surrogate risks. Our results explain some empirical observations on adversarial robustness from prior work and suggest new directions in algorithm development. Furthermore, our results extend previously known existence and minimax theorems for the adversarial classification risk to surrogate risks.

arxiv情報

著者 Natalie S. Frank Jonathan Niles-Weed
発行日 2023-04-05 11:37:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, math.ST, stat.TH パーマリンク