Learning Data Representations with Joint Diffusion Models

要約

【タイトル】「共同拡散モデルによる学習データ表現」

【要約】

– データを合成し、分類するための共同機械学習モデルは、それらのタスク間でパフォーマンスに差があることが多く、トレーニングが不安定であることが多い。
– 深い拡散ベースの生成モデルによって構築された内部表現の有用性を示す一連の経験的な観察から出発し、生成だけでなく予測にも使用することが提案されている。
– それに対応して、バニラ拡散モデルを分類器で拡張し、それらの目的の間で共有パラメータ化された安定した共同エンドツーエンドトレーニングを可能にする。
– 結果として得られた共同拡散モデルは、全ての評価ベンチマークにおいて、最近の最先端のハイブリッド方法よりも分類と生成品質の両方で優れたパフォーマンスを実現した。
– 共同トレーニング手法の上に、共有生成と識別表現から直接利益を得る方法を紹介し、視覚的な相反的説明のための方法を導入する。

要約(オリジナル)

Joint machine learning models that allow synthesizing and classifying data often offer uneven performance between those tasks or are unstable to train. In this work, we depart from a set of empirical observations that indicate the usefulness of internal representations built by contemporary deep diffusion-based generative models not only for generating but also predicting. We then propose to extend the vanilla diffusion model with a classifier that allows for stable joint end-to-end training with shared parameterization between those objectives. The resulting joint diffusion model outperforms recent state-of-the-art hybrid methods in terms of both classification and generation quality on all evaluated benchmarks. On top of our joint training approach, we present how we can directly benefit from shared generative and discriminative representations by introducing a method for visual counterfactual explanations.

arxiv情報

著者 Kamil Deja,Tomasz Trzcinski,Jakub M. Tomczak
発行日 2023-04-05 13:09:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.LG, stat.ML パーマリンク