Subgroups Matter for Robust Bias Mitigation

要約

機械学習のための新しいバイアス緩和方法の絶え間ない開発にもかかわらず、一貫して成功する方法はなく、基本的な疑問は未回答のままです。バイアス緩和手法がいつ、なぜ失敗するのか?
この論文では、多くのバイアス緩和方法、サブグループの定義で共有される、見過ごされているが重要なステップである可能性があると仮定しています。
これを調査するために、複数のビジョンおよび言語分類タスクにわたる最先端のバイアス緩和方法の包括的な評価を実施します。これは、粗い、微調整された、交差、および騒々しいサブグループを含むサブグループ定義を体系的に変化させます。
私たちの結果は、サブグループの選択がパフォーマンスに大きな影響を与えることを明らかにしており、特定のグループ化は逆説的に緩和がまったくないよりも悪い結果につながります。
私たちの調査結果は、一連のサブグループ間で格差を観察することが、これらのサブグループを緩和に使用する十分な理由ではないことを示唆しています。
理論分析を通じて、これらの現象を説明し、特定の一連のサブグループに関する公平性を改善することは、緩和のために異なるサブグループを使用することで最もよく達成されるという直感に反する洞察を明らかにします。
私たちの研究は、バイアス緩和における慎重なサブグループ定義の重要性を強調し、機械学習モデルの堅牢性と公平性を改善するための代替レバーとしてそれを示唆しています。

要約(オリジナル)

Despite the constant development of new bias mitigation methods for machine learning, no method consistently succeeds, and a fundamental question remains unanswered: when and why do bias mitigation techniques fail? In this paper, we hypothesise that a key factor may be the often-overlooked but crucial step shared by many bias mitigation methods: the definition of subgroups. To investigate this, we conduct a comprehensive evaluation of state-of-the-art bias mitigation methods across multiple vision and language classification tasks, systematically varying subgroup definitions, including coarse, fine-grained, intersectional, and noisy subgroups. Our results reveal that subgroup choice significantly impacts performance, with certain groupings paradoxically leading to worse outcomes than no mitigation at all. Our findings suggest that observing a disparity between a set of subgroups is not a sufficient reason to use those subgroups for mitigation. Through theoretical analysis, we explain these phenomena and uncover a counter-intuitive insight that, in some cases, improving fairness with respect to a particular set of subgroups is best achieved by using a different set of subgroups for mitigation. Our work highlights the importance of careful subgroup definition in bias mitigation and suggest it as a alternative lever for improving the robustness and fairness of machine learning models.

arxiv情報

著者 Anissa Alloula,Charles Jones,Ben Glocker,Bartłomiej W. Papież
発行日 2025-05-27 15:52:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク