要約
機械学習モデルは、トレーニング データで過小評価されているサブグループではパフォーマンスが低下することがよくあります。
しかし、部分集団の変化を引き起こすメカニズムの変化や、そのような大規模な多様な変化にわたってアルゴリズムがどのように一般化されるかについては、ほとんどわかっていません。
この研究では、部分集団のシフトの詳細な分析を提供します。
まず、サブグループにおける一般的な変化を分析して説明する統一フレームワークを提案します。
次に、視覚、言語、医療分野の 12 の実世界のデータセットで評価された 20 の最先端アルゴリズムの包括的なベンチマークを確立します。
10,000 を超えるモデルのトレーニングから得られた結果から、この分野の将来の進歩に関する興味深い観察結果が明らかになります。
まず、既存のアルゴリズムは、特定のタイプのシフトに対してのみサブグループの堅牢性を向上させますが、他のタイプのシフトに関しては向上させません。
さらに、現在のアルゴリズムはモデル選択のためにグループ注釈付き検証データに依存していますが、最悪クラスの精度に基づく単純な選択基準は、グループ情報がなくても驚くほど効果的であることがわかりました。
最後に、最悪群精度 (WGA) の改善のみを目的とした既存の研究とは異なり、WGA と他の重要な指標の間の基本的なトレードオフを実証し、テスト指標を慎重に選択する必要性を強調します。
コードとデータは https://github.com/YyzHarry/SubpopBench から入手できます。
要約(オリジナル)
Machine learning models often perform poorly on subgroups that are underrepresented in the training data. Yet, little is understood on the variation in mechanisms that cause subpopulation shifts, and how algorithms generalize across such diverse shifts at scale. In this work, we provide a fine-grained analysis of subpopulation shift. We first propose a unified framework that dissects and explains common shifts in subgroups. We then establish a comprehensive benchmark of 20 state-of-the-art algorithms evaluated on 12 real-world datasets in vision, language, and healthcare domains. With results obtained from training over 10,000 models, we reveal intriguing observations for future progress in this space. First, existing algorithms only improve subgroup robustness over certain types of shifts but not others. Moreover, while current algorithms rely on group-annotated validation data for model selection, we find that a simple selection criterion based on worst-class accuracy is surprisingly effective even without any group information. Finally, unlike existing works that solely aim to improve worst-group accuracy (WGA), we demonstrate the fundamental tradeoff between WGA and other important metrics, highlighting the need to carefully choose testing metrics. Code and data are available at: https://github.com/YyzHarry/SubpopBench.
arxiv情報
著者 | Yuzhe Yang,Haoran Zhang,Dina Katabi,Marzyeh Ghassemi |
発行日 | 2023-05-22 17:59:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google