DisDiff: Unsupervised Disentanglement of Diffusion Probabilistic Models

要約

この論文では、観察の背後にある説明可能な要因を理解し、これらの要因に関する条件付き生成プロセスをモデル化することを目的として、DPM の優れたモデリング能力を利用するために、新しいタスクである拡散確率モデル (DPM) のもつれを解くことを提案します。
このタスクに取り組むために、DisDiff という教師なしアプローチをさらに考案します。
初めて、拡散確率モデルのフレームワークでもつれのない表現学習を実現します。
事前にトレーニングされた DPM が与えられると、DisDiff は画像データの背後にある固有の要因を自動的に発見し、DPM の勾配フィールドをサブ勾配フィールドに解きほぐし、それぞれが発見された各因子の表現に基づいて調整されます。
表現とサブグラデーションのもつれを解くのを容易にするために、DisDiff の新しいもつれを解く損失を提案します。
合成データセットと実世界のデータセットに関する広範な実験により、DisDiff の有効性が実証されています。

要約(オリジナル)

In this paper, targeting to understand the underlying explainable factors behind observations and modeling the conditional generation process on these factors, we propose a new task, disentanglement of diffusion probabilistic models (DPMs), to take advantage of the remarkable modeling ability of DPMs. To tackle this task, we further devise an unsupervised approach named DisDiff. For the first time, we achieve disentangled representation learning in the framework of diffusion probabilistic models. Given a pre-trained DPM, DisDiff can automatically discover the inherent factors behind the image data and disentangle the gradient fields of DPM into sub-gradient fields, each conditioned on the representation of each discovered factor. We propose a novel Disentangling Loss for DisDiff to facilitate the disentanglement of the representation and sub-gradients. The extensive experiments on synthetic and real-world datasets demonstrate the effectiveness of DisDiff.

arxiv情報

著者 Tao Yang,Yuwang Wang,Yan Lv,Nanning Zh
発行日 2023-01-31 15:58:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク