Safe Latent Diffusion: Mitigating Inappropriate Degeneration in Diffusion Models

要約

テキスト条件付き画像生成モデルは、近年、画質とテキストアライメントにおいて驚くべき結果を達成しており、その結果、急速に増加しているアプリケーションで採用されている。しかし、インターネットから無作為に収集された数十億のデータセットに依存するため、人間の振る舞いが退化し、偏りが生じていることが指摘されている。さらに、このような偏りを助長する可能性さえある。このような望ましくない副作用に対処するために、我々は安全な潜在的拡散(Safe Latent Diffusion: SLD)を提案する。具体的には、フィルタリングされていない不均衡な学習セットによる不適切な潜在能力低下を測定するために、ヌードや暴力などの概念を含む実世界の画像からテキストへのプロンプトを含む新しい画像生成テストベッド-不適切な画像プロンプト(I2P)-を確立する。このテストベッドでは、ヌードや暴力などの実世界の画像をテキストに変換するプロンプトが含まれている。実証評価により、SLDは拡散プロセスにおいて不適切な画像部分を除去し抑制することができ、追加のトレーニングは必要なく、画像品質やテキストアライメントに悪影響を与えることもないことが示された。

要約(オリジナル)

Text-conditioned image generation models have recently achieved astonishing results in image quality and text alignment and are consequently employed in a fast-growing number of applications. Since they are highly data-driven, relying on billion-sized datasets randomly scraped from the internet, they also suffer, as we demonstrate, from degenerated and biased human behavior. In turn, they may even reinforce such biases. To help combat these undesired side effects, we present safe latent diffusion (SLD). Specifically, to measure the inappropriate degeneration due to unfiltered and imbalanced training sets, we establish a novel image generation test bed-inappropriate image prompts (I2P)-containing dedicated, real-world image-to-text prompts covering concepts such as nudity and violence. As our exhaustive empirical evaluation demonstrates, the introduced SLD removes and suppresses inappropriate image parts during the diffusion process, with no additional training required and no adverse effect on overall image quality or text alignment.

arxiv情報

著者 Patrick Schramowski,Manuel Brack,Björn Deiseroth,Kristian Kersting
発行日 2022-11-09 18:54:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク