Minimax risk classifiers with 0-1 loss

要約

教師あり分類手法では、トレーニング サンプルを使用して、予想される 0-1 損失 (エラー確率) が小さい分類ルールを学習します。
従来の方法では、扱いやすい学習が可能になり、0-1 損失の代わりに代理損失を使用し、特定のルール ファミリ (仮説クラス) を考慮することで、サンプル外の一般化が提供されます。
このホワイト ペーパーでは、基になる分布を含む可能性がある分布の不確実性セットに関して、最悪の場合の 0-1 損失を最小化するミニマックス リスク分類子 (MRC) を、調整可能な信頼度で提示します。
MRC が学習時に厳密なパフォーマンス保証を提供できること、および特徴的なカーネルによって与えられる機能マッピングを使用して強く普遍的に一貫性があることを示します。
この論文では、MRC 学習の効率的な最適化手法も提案し、提示された方法が実際に厳密なパフォーマンス保証とともに正確な分類を提供できることを示しています。

要約(オリジナル)

Supervised classification techniques use training samples to learn a classification rule with small expected 0-1 loss (error probability). Conventional methods enable tractable learning and provide out-of-sample generalization by using surrogate losses instead of the 0-1 loss and considering specific families of rules (hypothesis classes). This paper presents minimax risk classifiers (MRCs) that minize the worst-case 0-1 loss with respect to uncertainty sets of distributions that can include the underlying distribution, with a tunable confidence. We show that MRCs can provide tight performance guarantees at learning and are strongly universally consistent using feature mappings given by characteristic kernels. The paper also proposes efficient optimization techniques for MRC learning and shows that the methods presented can provide accurate classification together with tight performance guarantees in practice.

arxiv情報

著者 Santiago Mazuelas,Mauricio Romero,Peter Grünwald
発行日 2023-02-20 14:43:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク