Easily Accessible Text-to-Image Generation Amplifies Demographic Stereotypes at Large Scale

要約

機械学習モデルによって、ユーザーが書いたテキスト説明を自然な画像に変換できるようになった。これらのモデルはオンラインで誰でも利用でき、1日に数百万枚の画像を生成するために利用されている。我々はこれらのモデルを調査し、危険で複雑な固定観念を増幅することを発見した。さらに、増幅されたステレオタイプは予測が難しく、ユーザやモデルの所有者によって容易に緩和されないことがわかった。これらの画像生成モデルが、どの程度、ステレオタイプを永続させ、増幅させるのか、また、その大量展開は、深刻な懸念材料である。

要約(オリジナル)

Machine learning models are now able to convert user-written text descriptions into naturalistic images. These models are available to anyone online and are being used to generate millions of images a day. We investigate these models and find that they amplify dangerous and complex stereotypes. Moreover, we find that the amplified stereotypes are difficult to predict and not easily mitigated by users or model owners. The extent to which these image-generation models perpetuate and amplify stereotypes and their mass deployment is cause for serious concern.

arxiv情報

著者 Federico Bianchi,Pratyusha Kalluri,Esin Durmus,Faisal Ladhak,Myra Cheng,Debora Nozza,Tatsunori Hashimoto,Dan Jurafsky,James Zou,Aylin Caliskan
発行日 2022-11-07 18:31:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.CV パーマリンク