Sharp bounds on aggregate expert error

要約

ナイーブ ベイズ設定としても知られる、条件付きで独立した専門家からのバイナリ アドバイスを集約するという古典的な問題を再検討します。
私たちの関心のある量は、最適な決定ルールのエラー確率です。
対称的なエラー (感度 = 特異性) の場合、最適なエラー確率に対するかなり厳しい制限がわかっています。
一般的な非対称の場合、この量に関する自明でない推定値はわかりません。
私たちの貢献は、一般的なケースにおける最適なエラー確率の明確な上限と下限で構成されており、対称的な特殊なケースで最もよく知られている結果を回復し鮮明にします。
これは 2 つの製品分布間の合計変動距離を推定することと同等であることが判明したため、私たちの結果はこの重要かつ困難な問題にも関係します。

要約(オリジナル)

We revisit the classic problem of aggregating binary advice from conditionally independent experts, also known as the Naive Bayes setting. Our quantity of interest is the error probability of the optimal decision rule. In the case of symmetric errors (sensitivity = specificity), reasonably tight bounds on the optimal error probability are known. In the general asymmetric case, we are not aware of any nontrivial estimates on this quantity. Our contribution consists of sharp upper and lower bounds on the optimal error probability in the general case, which recover and sharpen the best known results in the symmetric special case. Since this turns out to be equivalent to estimating the total variation distance between two product distributions, our results also have bearing on this important and challenging problem.

arxiv情報

著者 Aryeh Kontorovich,Ariel Avital
発行日 2024-12-23 15:25:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, math.PR, math.ST, stat.ML, stat.TH パーマリンク