Intersectional Unfairness Discovery

要約

AI システムは人口の特定のサブグループに対して不公平な結果を生み出すことが示されており、特定のデリケートな属性に対する偏見を理解する必要性が強調されています。
現在の研究は、主に単一の機密属性によって特徴付けられるサブグループに焦点を当てており、複数の機密属性の共通の公平性の性質を無視しているため、不十分なことがよくあります。
この論文は、交差に敏感な属性の下にある多様な高バイアスのサブグループを発見することによって、その 1 つの基本的な側面に焦点を当てています。
具体的には、バイアス誘導生成ネットワーク (BGGN) を提案します。
各バイアス値を報酬として扱うことにより、BGGN は高バイアスの交差に敏感な属性を効率的に生成します。
現実世界のテキストおよび画像データセットの実験は、BGGN の多様かつ効率的な発見を実証します。
生成された目に見えないが不公平である可能性のある交差センシティブ属性をさらに評価するために、それらをプロンプトとして定式化し、最新の生成 AI を使用して新しいテキストと画像を生成します。
偏ったデータを頻繁に生成した結果は、一般的な最新の生成 AI システムにおける潜在的な不公平性を発見するための新たな洞察を提供します。
警告: この文書には、本質的に攻撃的な生成例が含まれています。

要約(オリジナル)

AI systems have been shown to produce unfair results for certain subgroups of population, highlighting the need to understand bias on certain sensitive attributes. Current research often falls short, primarily focusing on the subgroups characterized by a single sensitive attribute, while neglecting the nature of intersectional fairness of multiple sensitive attributes. This paper focuses on its one fundamental aspect by discovering diverse high-bias subgroups under intersectional sensitive attributes. Specifically, we propose a Bias-Guided Generative Network (BGGN). By treating each bias value as a reward, BGGN efficiently generates high-bias intersectional sensitive attributes. Experiments on real-world text and image datasets demonstrate a diverse and efficient discovery of BGGN. To further evaluate the generated unseen but possible unfair intersectional sensitive attributes, we formulate them as prompts and use modern generative AI to produce new texts and images. The results of frequently generating biased data provides new insights of discovering potential unfairness in popular modern generative AI systems. Warning: This paper contains generative examples that are offensive in nature.

arxiv情報

著者 Gezheng Xu,Qi Chen,Charles Ling,Boyu Wang,Changjian Shui
発行日 2024-06-05 16:37:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.LG パーマリンク