Learning Data Representations with Joint Diffusion Models

要約

生成タスクと予測タスクの両方に適合する意味のある内部表現を同時に学習する共同拡散モデルを導入します。
データの合成と分類を可能にする共同機械学習モデルは、多くの場合、これらのタスク間でパフォーマンスが不均一になったり、トレーニングが不安定になったりします。
この作業では、生成設定と予測設定の両方で、現代の深い拡散ベースの生成モデルによって構築された内部表現の有用性を示す一連の経験的観察から出発します。
次に、これらの目的間でパラメータ化を共有して安定した共同トレーニングを可能にする分類子を使用して、バニラ拡散モデルを拡張します。
結果として得られる共同拡散モデルは、生成モデリング、半教師あり分類、ドメイン適応など、さまざまなタスクにわたって優れたパフォーマンスを提供します。

要約(オリジナル)

We introduce a joint diffusion model that simultaneously learns meaningful internal representations fit for both generative and predictive tasks. Joint machine learning models that allow synthesizing and classifying data often offer uneven performance between those tasks or are unstable to train. In this work, we depart from a set of empirical observations that indicate the usefulness of internal representations built by contemporary deep diffusion-based generative models in both generative and predictive settings. We then introduce an extension of the vanilla diffusion model with a classifier that allows for stable joint training with shared parametrization between those objectives. The resulting joint diffusion model offers superior performance across various tasks, including generative modeling, semi-supervised classification, and domain adaptation.

arxiv情報

著者 Kamil Deja,Tomasz Trzcinski,Jakub M. Tomczak
発行日 2023-01-31 13:29:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, stat.ML パーマリンク