要約
テキストからビデオへの生成モデルの出現は、テキストのプロンプトから高品質のビデオを生成するため、コンテンツ作成に革命をもたらしました。
しかし、そのようなモデルに固有のバイアスに関する懸念により、特にジェンダー表現に関して精査が促されています。
私たちの研究では、最先端のテキストからビデオへの生成モデルである OpenAI の Sora におけるジェンダーバイアスの存在を調査しています。
私たちは、性別に依存せず、ステレオタイプ的なプロンプトの多様なセットから生成されたビデオを分析することで、偏見の重大な証拠を明らかにします。
結果は、Sora が特定の性別をステレオタイプの行動や職業と不釣り合いに関連付けていることを示しており、これはトレーニング データに埋め込まれた社会的偏見を反映しています。
要約(オリジナル)
The advent of text-to-video generation models has revolutionized content creation as it produces high-quality videos from textual prompts. However, concerns regarding inherent biases in such models have prompted scrutiny, particularly regarding gender representation. Our study investigates the presence of gender bias in OpenAI’s Sora, a state-of-the-art text-to-video generation model. We uncover significant evidence of bias by analyzing the generated videos from a diverse set of gender-neutral and stereotypical prompts. The results indicate that Sora disproportionately associates specific genders with stereotypical behaviors and professions, which reflects societal prejudices embedded in its training data.
arxiv情報
著者 | Mohammad Nadeem,Shahab Saquib Sohail,Erik Cambria,Björn W. Schuller,Amir Hussain |
発行日 | 2025-01-10 11:36:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google