Principled Approaches for Learning to Defer with Multiple Experts

要約

我々は、複数の専門家による、延期することを学習するという一般的な問題に対する代理損失とアルゴリズムの研究を紹介します。
まず、予測関数と延期関数が同時に学習される、複数の専門家設定に特化した新しい代理損失ファミリーを導入します。
次に、これらの代理損失が強い $H$ 一貫性限界から恩恵を受けることを証明します。
実際の代理損失のいくつかの例を通じて分析の適用を説明し、それに対して明示的な保証を与えます。
これらの損失関数は、その最小化に基づいてアルゴリズムを延期する新しい学習の設計に容易につながります。
この研究の主な焦点は理論分析ですが、SVHN および CIFAR-10 データセットに関するいくつかの実験の結果も報告します。

要約(オリジナル)

We present a study of surrogate losses and algorithms for the general problem of learning to defer with multiple experts. We first introduce a new family of surrogate losses specifically tailored for the multiple-expert setting, where the prediction and deferral functions are learned simultaneously. We then prove that these surrogate losses benefit from strong $H$-consistency bounds. We illustrate the application of our analysis through several examples of practical surrogate losses, for which we give explicit guarantees. These loss functions readily lead to the design of new learning to defer algorithms based on their minimization. While the main focus of this work is a theoretical analysis, we also report the results of several experiments on SVHN and CIFAR-10 datasets.

arxiv情報

著者 Anqi Mao,Mehryar Mohri,Yutao Zhong
発行日 2024-03-31 09:15:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク