Adversarial Consistency and the Uniqueness of the Adversarial Bayes Classifier

要約

敵対的トレーニングは、堅牢な分類器を学習するための一般的な手法です。
これまでの研究では、凸型代理損失は敵対的コンテキストでは統計的に一貫していないことが示されています。つまり、敵対的代理リスクの最小化シーケンスが必ずしも敵対的分類誤差を最小化するとは限りません。
私たちは、敵対的代理損失の一貫性を、\emph{敵対的ベイズ分類器} として知られる敵対的分類リスクに対するミニマイザーのプロパティに関連付けます。
具体的には、合理的な分布仮定の下では、敵対的ベイズ分類器が特定の一意性の概念を満たしている場合、凸損失は敵対的学習に対して統計的に一貫しています。

要約(オリジナル)

Adversarial training is a common technique for learning robust classifiers. Prior work showed that convex surrogate losses are not statistically consistent in the adversarial context — or in other words, a minimizing sequence of the adversarial surrogate risk will not necessarily minimize the adversarial classification error. We connect the consistency of adversarial surrogate losses to properties of minimizers to the adversarial classification risk, known as \emph{adversarial Bayes classifiers}. Specifically, under reasonable distributional assumptions, a convex loss is statistically consistent for adversarial learning iff the adversarial Bayes classifier satisfies a certain notion of uniqueness.

arxiv情報

著者 Natalie S. Frank
発行日 2024-05-15 15:43:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.ST, stat.ML, stat.TH パーマリンク