Probing Intersectional Biases in Vision-Language Models with Counterfactual Examples

要約

視覚言語モデル (VLM) は最近顕著なパフォーマンスの向上を達成しましたが、これらのモデルには性別や人種などの社会的属性に関して有害なバイアスも存在するという証拠が増えています。
これまでの研究は主に、社会的属性間の交差に関連するバイアスを無視しながら、そのようなバイアス属性を個別に調査することに焦点を当てていました。
これは、既存のデータセットから社会的属性のさまざまな組み合わせに対する画像とテキストのペアの網羅的なセットを収集することが難しいことが原因である可能性があります。
この課題に対処するために、私たちはテキストから画像への拡散モデルを採用して、介入間の社会的偏見を大規模に調査するための反事実の例を作成します。
私たちのアプローチは、クロスアテンションコントロールを備えた安定拡散を利用して、主題(特定の職業など)の描写において非常に類似している一方、交差する社会的属性(人種や性別など)の描写においてのみ異なる、反事実的な画像とテキストのペアのセットを生成します。
性別)。
私たちは、生成されたデータセットを使用して広範な実験を実施し、最先端の VLM に存在する交差社会バイアスを明らかにします。

要約(オリジナル)

While vision-language models (VLMs) have achieved remarkable performance improvements recently, there is growing evidence that these models also posses harmful biases with respect to social attributes such as gender and race. Prior studies have primarily focused on probing such bias attributes individually while ignoring biases associated with intersections between social attributes. This could be due to the difficulty of collecting an exhaustive set of image-text pairs for various combinations of social attributes from existing datasets. To address this challenge, we employ text-to-image diffusion models to produce counterfactual examples for probing intserctional social biases at scale. Our approach utilizes Stable Diffusion with cross attention control to produce sets of counterfactual image-text pairs that are highly similar in their depiction of a subject (e.g., a given occupation) while differing only in their depiction of intersectional social attributes (e.g., race & gender). We conduct extensive experiments using our generated dataset which reveal the intersectional social biases present in state-of-the-art VLMs.

arxiv情報

著者 Phillip Howard,Avinash Madasu,Tiep Le,Gustavo Lujan Moreno,Vasudev Lal
発行日 2023-10-04 17:25:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク