要約
この論文では、(Kumari et al.,2022) の「テキストから画像への拡散モデルにおけるコンセプトのアブレーション」で紹介されている、事前トレーニング済みモデル内の概念アブレーションの研究を拡張します。
私たちの研究は、事前に定義された指標を通じて提案および検証された概念アブレーションのさまざまなバリエーションによって達成される結果を再現することに重点を置いています。
また、概念除去の新しい変形、すなわち「商標除去」も紹介します。
このバリアントでは、記憶化とインスタンスのアブレーションの原則を組み合わせて、モデル出力における独自の要素やブランド要素の微妙な影響に取り組みます。
さらに、私たちの研究貢献には、モデルの限界に関する観察分析が含まれます。
さらに、概念を間接的に切除することを目的としたアブレーション漏れ誘発プロンプトに応答したモデルの動作を調査し、モデルの回復力と適応性についての洞察を明らかにします。
また、付録に記載されている、ターゲットのアブレーション概念からかけ離れた概念によって生成された画像に対するモデルのパフォーマンスの低下も観察します。
要約(オリジナル)
In this paper, we extend the study of concept ablation within pre-trained models as introduced in ‘Ablating Concepts in Text-to-Image Diffusion Models’ by (Kumari et al.,2022). Our work focuses on reproducing the results achieved by the different variants of concept ablation proposed and validated through predefined metrics. We also introduce a novel variant of concept ablation, namely ‘trademark ablation’. This variant combines the principles of memorization and instance ablation to tackle the nuanced influence of proprietary or branded elements in model outputs. Further, our research contributions include an observational analysis of the model’s limitations. Moreover, we investigate the model’s behavior in response to ablation leakage-inducing prompts, which aim to indirectly ablate concepts, revealing insights into the model’s resilience and adaptability. We also observe the model’s performance degradation on images generated by concepts far from its target ablation concept, documented in the appendix.
arxiv情報
著者 | Shivank Garg,Manyana Tiwari |
発行日 | 2024-06-18 13:22:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google