要約
コンピュータ ビジョン システムのバイアスは、特定の集団に対する差別を永続させたり、さらには増幅させたりする可能性があります。
バイアスは、偏った視覚データセットによってもたらされることが多いことを考慮して、最近の研究の多くは、そのようなデータを使用して公正なモデルをトレーニングすることに焦点を当てています。
ただし、それらのほとんどは、データセット内の保護された属性ラベルの可用性に大きく依存しており、その適用性が制限されている一方、ラベルを意識しないアプローチ、つまりそのようなラベルなしで動作するアプローチは、パフォーマンスが大幅に低下します。
これらの制限を克服するために、この研究では、属性ラベルを使用せずに、モデルによって抽出された特徴と保護された属性の間の相互情報を最小限に抑える方法論である FLAC を導入しました。
これを行うために、FLAC は、データセット内で過小評価されたサンプルを強調表示するサンプリング戦略を提案し、公平な表現を学習する問題を、バイアス捕捉分類器によって抽出された表現を活用する確率マッチング問題として投影します。
FLAC は実際に、保護された属性に依存しない公正な表現を実現できることが理論的に示されています。
FLAC は、現在の最先端の Biased-MNIST、CelebA、UTKFace をそれぞれ 29.1%、18.1%、21.9% 上回っています。
さらに、FLAC は ImageNet-A で 2.2% の精度の向上、Corrupted-Cifar10 で最大 4.2% の精度の向上を示します。
最後に、ほとんどの実験において、FLAC はバイアスラベルを意識した最先端の手法よりも優れたパフォーマンスを発揮します。
要約(オリジナル)
Bias in computer vision systems can perpetuate or even amplify discrimination against certain populations. Considering that bias is often introduced by biased visual datasets, many recent research efforts focus on training fair models using such data. However, most of them heavily rely on the availability of protected attribute labels in the dataset, which limits their applicability, while label-unaware approaches, i.e., approaches operating without such labels, exhibit considerably lower performance. To overcome these limitations, this work introduces FLAC, a methodology that minimizes mutual information between the features extracted by the model and a protected attribute, without the use of attribute labels. To do that, FLAC proposes a sampling strategy that highlights underrepresented samples in the dataset, and casts the problem of learning fair representations as a probability matching problem that leverages representations extracted by a bias-capturing classifier. It is theoretically shown that FLAC can indeed lead to fair representations, that are independent of the protected attributes. FLAC surpasses the current state-of-the-art on Biased-MNIST, CelebA, and UTKFace, by 29.1%, 18.1%, and 21.9%, respectively. Additionally, FLAC exhibits 2.2% increased accuracy on ImageNet-A and up to 4.2% increased accuracy on Corrupted-Cifar10. Finally, in most experiments, FLAC even outperforms the bias label-aware state-of-the-art methods.
arxiv情報
著者 | Ioannis Sarridis,Christos Koutlis,Symeon Papadopoulos,Christos Diou |
発行日 | 2024-10-25 12:53:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google