Contrastive Language-Vision AI Models Pretrained on Web-Scraped Multimodal Data Exhibit Sexual Objectification Bias

要約

Contrastive Language-Image Pretraining (CLIP) 目標を使用して Web スクレイピングでトレーニングされた 9 つの言語視覚 AI モデルは、心理学者によって研究されたバイアスの証拠について評価されます。
人は体または体の一部の集まりとして扱われます。
最初の実験では、Sexual OBjectification and EMotion Database から標準化された女性の画像を使用し、心理学の先行研究に見合うように、人間の特徴は対象化された女性の画像から切り離されていることを発見しました。モデルの感情状態の認識は、被験者が
完全または部分的に服を着ている。
埋め込み関連テスト (EATs) は、怒り (d >.8) と悲しみ (d >.5) の両方で有意な効果サイズを返します。
2 番目の実験では、代表的なアプリケーションでの効果を測定します。自動画像キャプション (南極のキャプション) は、完全に服を着た女性の画像よりも部分的に服を着た女性の画像の場合、50% 未満の頻度で感情を表す単語を含めます。
3 番目の実験では、女性の専門家 (科学者、医師、経営者) の画像は、男性の専門家の画像よりも性的な描写に関連している可能性が高いことがわかりました。
4 番目の実験では、「[年齢] 歳の女の子」というプロンプトが、VQGAN-CLIP (17 歳) の場合、最大 73% の時間で性的な画像 (NSFW 分類子によって決定される) を生成し、
安定拡散の時期(14 歳と 18 歳)。
男子の対応率が 9% を超えることはありません。
証拠は、自動的に収集された Web スクレイピングでトレーニングされた言語視覚 AI モデルが性的対象化のバイアスを学習し、それが下流のアプリケーションに伝播することを示しています。

要約(オリジナル)

Nine language-vision AI models trained on web scrapes with the Contrastive Language-Image Pretraining (CLIP) objective are evaluated for evidence of a bias studied by psychologists: the sexual objectification of girls and women, which occurs when a person’s human characteristics are disregarded and the person is treated as a body or a collection of body parts. A first experiment uses standardized images of women from the Sexual OBjectification and EMotion Database, and finds that, commensurate with prior research in psychology, human characteristics are disassociated from images of objectified women: the model’s recognition of emotional state is mediated by whether the subject is fully or partially clothed. Embedding association tests (EATs) return significant effect sizes for both anger (d >.8) and sadness (d >.5). A second experiment measures the effect in a representative application: an automatic image captioner (Antarctic Captions) includes words denoting emotion less than 50% as often for images of partially clothed women than for images of fully clothed women. A third experiment finds that images of female professionals (scientists, doctors, executives) are likely to be associated with sexual descriptions relative to images of male professionals. A fourth experiment shows that a prompt of ‘a [age] year old girl’ generates sexualized images (as determined by an NSFW classifier) up to 73% of the time for VQGAN-CLIP (age 17), and up to 40% of the time for Stable Diffusion (ages 14 and 18); the corresponding rate for boys never surpasses 9%. The evidence indicates that language-vision AI models trained on automatically collected web scrapes learn biases of sexual objectification, which propagate to downstream applications.

arxiv情報

著者 Robert Wolfe,Yiwei Yang,Bill Howe,Aylin Caliskan
発行日 2022-12-21 18:54:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CV, cs.CY, cs.LG パーマリンク