要約
Text-to-Image (T2I) 生成モデルの最近の進歩により、高品質の画像生成が可能になりました。
パフォーマンスとアクセシビリティが向上するにつれて、これらのモデルは大きな魅力と人気を獲得しています。偏見の蔓延と永続を防ぐには、その公平性と安全性を確保することが最優先事項です。
しかし、バイアス検出に関する既存の研究は、あらかじめ定義されたバイアスの閉じたセット(性別、民族性など)に焦点を当てています。
この論文では、オープンセット設定、つまり事前定義されたセットを必要とせずにバイアスを特定、定量化、説明するための一般的なフレームワークを提案します。
このパイプラインは、大規模言語モデル (LLM) を利用して、キャプションのセットから開始してバイアスを提案します。
次に、これらのキャプションは、一連の画像を生成するためにターゲット生成モデルによって使用されます。
最後に、Vision Question Answering (VQA) をバイアス評価に活用します。
このフレームワークの 2 つのバリエーション、OpenBias と GradBias を示します。
OpenBias はバイアスを検出して定量化しますが、GradBias はバイアスに対する個々のプロンプト ワードの寄与を決定します。
OpenBias は、人、物体、動物に関連する既知のバイアスと新規のバイアスの両方を効果的に検出し、既存のクローズドセット バイアス検出手法や人間の判断と高度に連携しています。
GradBias は、中立的な単語がバイアスに大きな影響を与える可能性があり、最先端の基礎モデルを含むいくつかのベースラインを上回るパフォーマンスを示しています。
コードはここから入手できます: https://github.com/Moreno98/GradBias。
要約(オリジナル)
Recent progress in Text-to-Image (T2I) generative models has enabled high-quality image generation. As performance and accessibility increase, these models are gaining significant attraction and popularity: ensuring their fairness and safety is a priority to prevent the dissemination and perpetuation of biases. However, existing studies in bias detection focus on closed sets of predefined biases (e.g., gender, ethnicity). In this paper, we propose a general framework to identify, quantify, and explain biases in an open set setting, i.e. without requiring a predefined set. This pipeline leverages a Large Language Model (LLM) to propose biases starting from a set of captions. Next, these captions are used by the target generative model for generating a set of images. Finally, Vision Question Answering (VQA) is leveraged for bias evaluation. We show two variations of this framework: OpenBias and GradBias. OpenBias detects and quantifies biases, while GradBias determines the contribution of individual prompt words on biases. OpenBias effectively detects both well-known and novel biases related to people, objects, and animals and highly aligns with existing closed-set bias detection methods and human judgment. GradBias shows that neutral words can significantly influence biases and it outperforms several baselines, including state-of-the-art foundation models. Code available here: https://github.com/Moreno98/GradBias.
arxiv情報
著者 | Moreno D’Incà,Elia Peruzzo,Massimiliano Mancini,Xingqian Xu,Humphrey Shi,Nicu Sebe |
発行日 | 2024-08-29 16:51:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google