要約
トレーニング データに誤った相関が発生しやすいモデルは、脆弱な予測を生成し、意図しないバイアスを導入することがよくあります。
この課題に対処するには、通常、事前の知識とグループ アノテーションに依存して偽の相関を除去する方法が必要ですが、多くのアプリケーションでは容易に利用できない可能性があります。
この論文では、教師なしオブジェクト中心学習と偽相関の軽減との間の新しい関係を確立します。
ラベルとのさまざまな相関を持つサブグループを直接推論する代わりに、私たちのアプローチは概念、つまり入力サンプル間で共有される個別のアイデアの発見に焦点を当てています。
既存のオブジェクト中心の表現学習を活用して、人間によるサブグループのラベル付けを必要とせずに偽の相関を効果的に軽減する概念バランシング手法である CoBalT を導入します。
部分母集団の変化に関するベンチマーク データセット全体の評価により、グループ アノテーションを必要とせずに、最先端のベースラインと比較して優れたまたは競合するパフォーマンスが実証されます。
コードは https://github.com/rarefin/CoBalT で入手できます。
要約(オリジナル)
Models prone to spurious correlations in training data often produce brittle predictions and introduce unintended biases. Addressing this challenge typically involves methods relying on prior knowledge and group annotation to remove spurious correlations, which may not be readily available in many applications. In this paper, we establish a novel connection between unsupervised object-centric learning and mitigation of spurious correlations. Instead of directly inferring subgroups with varying correlations with labels, our approach focuses on discovering concepts: discrete ideas that are shared across input samples. Leveraging existing object-centric representation learning, we introduce CoBalT: a concept balancing technique that effectively mitigates spurious correlations without requiring human labeling of subgroups. Evaluation across the benchmark datasets for sub-population shifts demonstrate superior or competitive performance compared state-of-the-art baselines, without the need for group annotation. Code is available at https://github.com/rarefin/CoBalT.
arxiv情報
著者 | Md Rifat Arefin,Yan Zhang,Aristide Baratin,Francesco Locatello,Irina Rish,Dianbo Liu,Kenji Kawaguchi |
発行日 | 2024-07-16 17:54:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google