Bias Mimicking: A Simple Sampling Approach for Bias Mitigation

要約

先行研究により、視覚認識データセットでは、あるカテゴリ(プログラマ)の中で敏感なグループ(女性)が頻繁に過小評価されることが示されています。このデータセットの偏りは、クラスラベルと年齢、性別、人種などの敏感な属性との間の偽の相関を学習するモデルにつながる可能性がある。この問題に対処する最近の手法のほとんどは、アーキテクチャの大幅な変更や、高価なハイパーパラメータのチューニングを必要とします。また、クラス不均衡の文献にあるデータ再サンプリングベースライン( \eg Undersampling, Upweighting )は、しばしば1行のコードで実装でき、ハイパーパラメータを持たないため、より安価で効率的な解決策を提供することができます。しかし、最近の偏り緩和ベンチマークでは、これらのベースラインの一部が欠落していることが判明した。本論文では、これらの単純な手法が、多くのデータセットにおいて、最先端の偏り緩和手法と顕著な競争力を持つことを示す。さらに、新しいクラス条件付きサンプリング法を導入することにより、これらの方法を改善する。バイアスミミッキング(Bias Mimicking)である。ベースラインのデータセット再サンプリング法がうまく機能しない場合、Bias Mimickingは効果的に性能差を埋め、先行研究と比べて、十分に代表されていないサブグループの平均精度を$3%$以上向上させることができる。

要約(オリジナル)

Prior work has shown that Visual Recognition datasets frequently under-represent sensitive groups (\eg Female) within a category (\eg Programmers). This dataset bias can lead to models that learn spurious correlations between class labels and sensitive attributes such as age, gender, or race. Most of the recent methods that address this problem require significant architectural changes or expensive hyper-parameter tuning. Alternatively, data re-sampling baselines from the class imbalance literature (\eg Undersampling, Upweighting), which can often be implemented in a single line of code and often have no hyperparameters, offer a cheaper and more efficient solution. However, we found that some of these baselines were missing from recent bias mitigation benchmarks. In this paper, we show that these simple methods are strikingly competitive with state-of-the-art bias mitigation methods on many datasets. Furthermore, we improve these methods by introducing a new class conditioned sampling method: Bias Mimicking. In cases where the baseline dataset re-sampling methods do not perform well, Bias Mimicking effectively bridges the performance gap and improves the total averaged accuracy of under-represented subgroups by over $3\%$ compared to prior work.

arxiv情報

著者 Maan Qraitem,Kate Saenko,Bryan A. Plummer
発行日 2022-10-03 14:28:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク