When No-Rejection Learning is Consistent for Regression with Rejection

要約

拒絶を伴う学習は、予測タスクにおける人間とAIの相互作用を研究するための典型的なモデルである。サンプル・インスタンスが到着すると、モデルはまず拒絶器を用いて、AI予測器を受け入れて予測を行うか、拒絶してサンプルを人間に委ねるかを決定する。このようなモデルを学習すると、元の損失関数の構造が変化し、しばしば望ましくない非凸性と矛盾の問題が生じる。棄却を伴う分類問題については、予測器と棄却器の共同学習のための一貫した代用損失を開発した研究がいくつかあるが、回帰問題についてはあまり研究がない。本稿では、棄却を伴う回帰(RwR)問題を研究し、予測器を学習するために全てのデータを用いる棄却なし学習戦略を検討する。我々はまず、弱い実現可能性条件の下でこのような戦略の一貫性を確立する。次に、弱い実現可能性がない場合について、過剰リスクも予測誤差と校正誤差の2つの部分の和で上界できることを示す。最後に、このような学習戦略の優位性を実証的に示す。

要約(オリジナル)

Learning with rejection has been a prototypical model for studying the human-AI interaction on prediction tasks. Upon the arrival of a sample instance, the model first uses a rejector to decide whether to accept and use the AI predictor to make a prediction or reject and defer the sample to humans. Learning such a model changes the structure of the original loss function and often results in undesirable non-convexity and inconsistency issues. For the classification with rejection problem, several works develop consistent surrogate losses for the joint learning of the predictor and the rejector, while there have been fewer works for the regression counterpart. This paper studies the regression with rejection (RwR) problem and investigates a no-rejection learning strategy that uses all the data to learn the predictor. We first establish the consistency for such a strategy under the weak realizability condition. Then for the case without the weak realizability, we show that the excessive risk can also be upper bounded with the sum of two parts: prediction error and calibration error. Lastly, we demonstrate the advantage of such a proposed learning strategy with empirical evidence.

arxiv情報

著者 Xiaocheng Li,Shang Liu,Chunlin Sun,Hanzhao Wang
発行日 2024-03-02 16:44:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG パーマリンク