Learning With Multi-Group Guarantees For Clusterable Subpopulations

要約

予測問題の標準的な要件は、パフォーマンスの保証が母集団の平均だけでなく、母集団全体内の意味のある部分母集団にも適用される必要があることです。
しかし、意味のある部分母集団とは何でしょうか?
この研究では、予測が行われている個人の分布から自然に出現するクラスターに関して、関連する部分母集団を定義する必要があるという観点を採用しています。
この観点では、母集団は、そのコンポーネントが関連する部分母集団を構成する混合モデルを指します。
サブグループごとの保証を取得するための 2 つの形式を提案します。1 つは、各個人を、その特徴を考慮して、最も可能性が高いコンポーネントに帰属させることです。
第二に、各構成要素から抽出された相対的な可能性に比例して、各個人をすべての構成要素に帰属させることによって行われます。
オンラインキャリブレーションをケーススタディとして使用して、すべての考えられる基礎となる部分母集団構造を同時に処理することで、これらの各形式主義の保証を提供する \variational アルゴリズムを研究し、
部分母集団が十分に分離されていません。
比較すると、最初に部分母集団の構造を回復してから予測を行う、より自然なクラスター後予測アプローチでは、$O(T^{2/3})$ のレートが発生し、部分母集団が分離可能である必要があります。
その過程で、基礎となるクラスターにサブグループごとのキャリブレーション保証を提供する方が、クラスターを学習するよりも簡単であることを証明します。後者にはメディアン サブグループ特徴間の分離が必要ですが、前者には必要ありません。

要約(オリジナル)

A canonical desideratum for prediction problems is that performance guarantees should hold not just on average over the population, but also for meaningful subpopulations within the overall population. But what constitutes a meaningful subpopulation? In this work, we take the perspective that relevant subpopulations should be defined with respect to the clusters that naturally emerge from the distribution of individuals for which predictions are being made. In this view, a population refers to a mixture model whose components constitute the relevant subpopulations. We suggest two formalisms for capturing per-subgroup guarantees: first, by attributing each individual to the component from which they were most likely drawn, given their features; and second, by attributing each individual to all components in proportion to their relative likelihood of having been drawn from each component. Using online calibration as a case study, we study a \variational algorithm that provides guarantees for each of these formalisms by handling all plausible underlying subpopulation structures simultaneously, and achieve an $O(T^{1/2})$ rate even when the subpopulations are not well-separated. In comparison, the more natural cluster-then-predict approach that first recovers the structure of the subpopulations and then makes predictions suffers from a $O(T^{2/3})$ rate and requires the subpopulations to be separable. Along the way, we prove that providing per-subgroup calibration guarantees for underlying clusters can be easier than learning the clusters: separation between median subgroup features is required for the latter but not the former.

arxiv情報

著者 Jessica Dai,Nika Haghtalab,Eric Zhao
発行日 2024-10-18 16:38:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.LG パーマリンク