Latent Directions: A Simple Pathway to Bias Mitigation in Generative AI

要約

生成 AI、特にテキストから画像への変換モデルにおけるバイアスを軽減することは、社会における影響力の増大を考えると非常に重要です。
トレーニングに使用される偏ったデータセットは、これらのモデルの責任ある開発を保証する上で課題を引き起こし、ハード プロンプトまたは埋め込み変更による緩和が現在の最も一般的な解決策です。
私たちの研究では、潜在空間の方向を学習し、拡散プロセスに提供される初期ガウス ノイズのみを変更することで、多様で包括的な合成画像を実現する新しいアプローチを導入しています。
このアプローチは、中立的なプロンプトと手つかずの埋め込みを維持することで、地理的な偏りなど、さまざまな偏りを解消するシナリオにうまく適応します。
さらに、私たちの研究は、これらの学習された潜在的な方向を線形的に組み合わせて新しい緩和策を導入し、必要に応じてそれをテキスト埋め込み調整と統合することが可能であることを証明しています。
さらに、テキストから画像へのモデルは、視覚的に検査しない限り、出力の偏りを評価するための透明性を欠いています。
したがって、私たちは、開発者が軽減する目的の概念を選択できるようにするツールを提供します。
コードを含むプロジェクト ページはオンラインで入手できます。

要約(オリジナル)

Mitigating biases in generative AI and, particularly in text-to-image models, is of high importance given their growing implications in society. The biased datasets used for training pose challenges in ensuring the responsible development of these models, and mitigation through hard prompting or embedding alteration, are the most common present solutions. Our work introduces a novel approach to achieve diverse and inclusive synthetic images by learning a direction in the latent space and solely modifying the initial Gaussian noise provided for the diffusion process. Maintaining a neutral prompt and untouched embeddings, this approach successfully adapts to diverse debiasing scenarios, such as geographical biases. Moreover, our work proves it is possible to linearly combine these learned latent directions to introduce new mitigations, and if desired, integrate it with text embedding adjustments. Furthermore, text-to-image models lack transparency for assessing bias in outputs, unless visually inspected. Thus, we provide a tool to empower developers to select their desired concepts to mitigate. The project page with code is available online.

arxiv情報

著者 Carolina Lopez Olmos,Alexandros Neophytou,Sunando Sengupta,Dim P. Papadopoulos
発行日 2024-06-10 15:13:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク