Safe Latent Diffusion: Mitigating Inappropriate Degeneration in Diffusion Models

要約

タイトル:Diffusion Modelsにおける不適切な劣化を緩和するSafe Latent Diffusion
要約:
– テキスト条件付きの画像生成モデルは最近、画像品質やテキストアライメントの驚くべき結果を達成し、増え続けるアプリケーションで使用されています。
– これらのモデルは、インターネットからランダムにスクレイプされた数十億のデータに依存するため、劣化やバイアスのある人間の行動に苦しんでいます。
– このため、このようなバイアスを強化してしまう可能性があります。そこで、私たちは不適切な劣化を測定するための画像生成テストベッド「I2P(不適切な画像プロンプト)」を設立し、そのためにSafe Latent Diffusion(SLD)を提案します。
– 積極的な実験評価により、導入されたSLDは、追加のトレーニングや全体的な画像品質やテキストアラインメントに悪影響はなく、拡散プロセス中に不適切な画像パーツを除去または抑制します。

要約(オリジナル)

Text-conditioned image generation models have recently achieved astonishing results in image quality and text alignment and are consequently employed in a fast-growing number of applications. Since they are highly data-driven, relying on billion-sized datasets randomly scraped from the internet, they also suffer, as we demonstrate, from degenerated and biased human behavior. In turn, they may even reinforce such biases. To help combat these undesired side effects, we present safe latent diffusion (SLD). Specifically, to measure the inappropriate degeneration due to unfiltered and imbalanced training sets, we establish a novel image generation test bed-inappropriate image prompts (I2P)-containing dedicated, real-world image-to-text prompts covering concepts such as nudity and violence. As our exhaustive empirical evaluation demonstrates, the introduced SLD removes and suppresses inappropriate image parts during the diffusion process, with no additional training required and no adverse effect on overall image quality or text alignment.

arxiv情報

著者 Patrick Schramowski,Manuel Brack,Björn Deiseroth,Kristian Kersting
発行日 2023-04-25 16:27:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク