要約
Stable Diffusion などのテキストから画像への生成 AI モデルは、世界中で何百万人もの人々に毎日使用されています。
ただし、これらのモデルが人種および性別の固定観念をどの程度示しているかはまだ完全には理解されていません。
ここでは、6 つの人種、2 つの性別、32 の職業、8 つの属性にわたる安定拡散における重大な偏りを文書化します。
さらに、安定拡散が同じ人種の個人を互いに類似しているものとして描写する度合いを調べます。
この分析により、ほぼすべての中東男性が肌の色が浅く、ひげを生やし、伝統的な頭飾りをかぶっているなど、著しい人種的均質化が明らかになりました。
次に、上記の固定観念に対処する新しいバイアス軽減ソリューションを提案します。
最後に、事前に登録した実験を使用して、AI が生成した包括的な顔が提示されると人々の人種的および性別による偏見が軽減され、非包括的顔が提示されるとそのような偏見が増加することが示されました。
これは、画像が AI 生成としてラベル付けされているかどうかに関係なく持続します。
総合すると、私たちの調査結果は、AI が生成したコンテンツにおける偏見や固定観念に対処する必要性を強調しています。
要約(オリジナル)
Text-to-image generative AI models such as Stable Diffusion are used daily by millions worldwide. However, the extent to which these models exhibit racial and gender stereotypes is not yet fully understood. Here, we document significant biases in Stable Diffusion across six races, two genders, 32 professions, and eight attributes. Additionally, we examine the degree to which Stable Diffusion depicts individuals of the same race as being similar to one another. This analysis reveals significant racial homogenization, e.g., depicting nearly all middle eastern men as dark-skinned, bearded, and wearing a traditional headdress. We then propose novel debiasing solutions that address the above stereotypes. Finally, using a preregistered experiment, we show that being presented with inclusive AI-generated faces reduces people’s racial and gender biases, while being presented with non-inclusive ones increases such biases. This persists regardless of whether the images are labeled as AI-generated. Taken together, our findings emphasize the need to address biases and stereotypes in AI-generated content.
arxiv情報
著者 | Nouar AlDahoul,Talal Rahwan,Yasir Zaki |
発行日 | 2024-05-10 09:42:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google