FLAC: Fairness-Aware Representation Learning by Suppressing Attribute-Class Associations

要約

タイトル:属性-クラスの関連性を抑制することによるフェアネス意識のある表現学習(FLAC)

要約:

– コンピュータビジョンシステム内のバイアスは、特定の人口に対する差別を持続させるまたは強化する可能性があります。
– バイアスはしばしばバイアスのかかった視覚的データセットによって導入されるため、多くの最近の研究努力は、このようなデータを使用して公平なモデルを訓練することに焦点を当てています。
– ただし、それらのほとんどはデータセット内の保護された属性ラベルの利用可能性に強く依存しています。これにより、ラベル非依存のアプローチは、かなり低いパフォーマンスを示す。
– これらの制約を克服するために、この研究では、属性ラベルを使用せずに、モデルによって抽出された特徴量と保護された属性の間の相互情報量を最小化するFLACという手法を紹介しています。
– これを行うために、FLACは、データセット内の代表的でないサンプルを強調するサンプリング戦略を提案し、バイアスを捉える分類器によって抽出された表現を活用する確率マッチング問題として公平な表現の学習の問題を設定しています。
– 理論的に証明されたように、FLACは、保護された属性と独立した公正な表現を実現することができます。
– FLACは、Biased MNIST、CelebA、およびUTKFaceに対して現在の最新技術を29.1%、18.1%、および21.9%超える結果を出しました。
– 加えて、FLACは、ImageNet-Aに対して2.2%の精度向上を示しました。さらに、多くの実験において、FLACはバイアスラベルに関する最新技術を上回るパフォーマンスを示しました。

要約(オリジナル)

Bias in computer vision systems can perpetuate or even amplify discrimination against certain populations. Considering that bias is often introduced by biased visual datasets, many recent research efforts focus on training fair models using such data. However, most of them heavily rely on the availability of protected attribute labels in the dataset, which limits their applicability, while label-unaware approaches, i.e., approaches operating without such labels, exhibit considerably lower performance. To overcome these limitations, this work introduces FLAC, a methodology that minimizes mutual information between the features extracted by the model and a protected attribute, without the use of attribute labels. To do that, FLAC proposes a sampling strategy that highlights underrepresented samples in the dataset, and casts the problem of learning fair representations as a probability matching problem that leverages representations extracted by a bias-capturing classifier. It is theoretically shown that FLAC can indeed lead to fair representations, that are independent of the protected attributes. FLAC surpasses the current state-of-the-art on Biased MNIST, CelebA, and UTKFace, by 29.1%, 18.1%, and 21.9%, respectively. Additionally, FLAC exhibits 2.2% increased accuracy on ImageNet-A consisting of the most challenging samples of ImageNet. Finally, in most experiments, FLAC even outperforms the bias label-aware state-of-the-art methods.

arxiv情報

著者 Ioannis Sarridis,Christos Koutlis,Symeon Papadopoulos,Christos Diou
発行日 2023-04-27 15:10:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク