要約
拒否による分類は、モデルが予測を行うことを控えることを可能にする学習パラダイムとして現れます。
支配的なアプローチは、典型的な損失関数を強化することにより、監督された学習パイプラインを変更し、モデルの拒否を誤った予測よりも低い損失をもたらすことです。
代わりに、別の分布視点を提案します。ここでは、前処理されたモデルのパフォーマンスを最大化する理想化されたデータ分布を見つけようとします。
これは、$ \ varphi $ -divergenceの正規化項で損失のリスクを最適化することで形式化できます。
この理想的な分布を通じて、この分布とデータ分布の間の密度比を利用することにより、拒否決定を下すことができます。
$ \ varphi $ -divergencesが$ \ alpha $ -divergenceのファミリーによって指定されている設定に焦点を当てます。
私たちのフレームワークは、クリーンでノイズの多いデータセットで経験的にテストされています。
要約(オリジナル)
Classification with rejection emerges as a learning paradigm which allows models to abstain from making predictions. The predominant approach is to alter the supervised learning pipeline by augmenting typical loss functions, letting model rejection incur a lower loss than an incorrect prediction. Instead, we propose a different distributional perspective, where we seek to find an idealized data distribution which maximizes a pretrained model’s performance. This can be formalized via the optimization of a loss’s risk with a $\varphi$-divergence regularization term. Through this idealized distribution, a rejection decision can be made by utilizing the density ratio between this distribution and the data distribution. We focus on the setting where our $\varphi$-divergences are specified by the family of $\alpha$-divergence. Our framework is tested empirically over clean and noisy datasets.
arxiv情報
著者 | Alexander Soen,Hisham Husain,Philip Schulz,Vu Nguyen |
発行日 | 2025-05-08 14:06:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google