要約
データセットにおける表現バイアスの主な原因は、不適切なデータ収集方法や代表的でないデータ収集方法に起因するグループの不均衡である。表現バイアスは、1つまたは複数の保護された属性の異なるグループに関して存在する可能性があり、そのような偏ったデータで学習モデルを学習した場合、特定のグループの個人に対する偏見や差別的な結果につながる可能性があります。本論文では、親和性クラスタリングを活用し、保護属性のインスタンスを共有することでターゲットデータセットと同じクラスタに分類される類似データセットから同じ保護属性のインスタンスを利用することで、ターゲットデータセットの非保護グループと保護グループの表現のバランスをとるデータ拡張アプローチであるMASCを提示する。提案手法は、データセットペア間の分布の不一致を定量化することで親和性行列を構築し、対称的なペアワイズ類似度行列に変換する。次に、この親和性行列にノンパラメトリックスペクトラルクラスタリングを適用し、データセットを最適な数のクラスタに自動的に分類する。本手法のデモとして、提案するデータ増強法の手順を示すステップバイステップの実験を行い、その性能を評価・考察する。また、他のデータ補強方法との比較も、補強前と補強後の両方で行い、各方法のモデル評価分析も行っている。本手法は非二値保護属性を扱うことができるため、実験では、非二値保護属性の設定において、2つのマイノリティグループの人種グループ分布の偏りを測定し、デビアス前と後のマジョリティグループと比較した。実験結果は、類似した文脈の実データ(本物)を用いてデータセットのバイアスを増強する我々の方法が、既存のデータ増強戦略と比較して、ターゲットデータセットを効果的にデビアスできることを示唆している。
要約(オリジナル)
Group imbalance, resulting from inadequate or unrepresentative data collection methods, is a primary cause of representation bias in datasets. Representation bias can exist with respect to different groups of one or more protected attributes and might lead to prejudicial and discriminatory outcomes toward certain groups of individuals; in cases where a learning model is trained on such biased data. This paper presents MASC, a data augmentation approach that leverages affinity clustering to balance the representation of non-protected and protected groups of a target dataset by utilizing instances of the same protected attributes from similar datasets that are categorized in the same cluster as the target dataset by sharing instances of the protected attribute. The proposed method involves constructing an affinity matrix by quantifying distribution discrepancies between dataset pairs and transforming them into a symmetric pairwise similarity matrix. A non-parametric spectral clustering is then applied to this affinity matrix, automatically categorizing the datasets into an optimal number of clusters. We perform a step-by-step experiment as a demo of our method to show the procedure of the proposed data augmentation method and evaluate and discuss its performance. A comparison with other data augmentation methods, both pre- and post-augmentation, is conducted, along with a model evaluation analysis of each method. Our method can handle non-binary protected attributes so, in our experiments, bias is measured in a non-binary protected attribute setup w.r.t. racial groups distribution for two separate minority groups in comparison with the majority group before and after debiasing. Empirical results imply that our method of augmenting dataset biases using real (genuine) data from similar contexts can effectively debias the target datasets comparably to existing data augmentation strategies.
arxiv情報
著者 | Siamak Ghodsi,Eirini Ntoutsi |
発行日 | 2023-06-02 17:18:20+00:00 |
arxivサイト | arxiv_id(pdf) |