要約
私たちは、各データポイントの状態と次元を共同でモデル化することで、さまざまな次元のデータを自然に処理する新しいクラスの生成モデルを提案します。
生成プロセスは、異なる次元空間間をジャンプするジャンプ拡散プロセスとして定式化されます。
まず、順方向ノイズプロセスを破壊する次元を定義し、その後、時間反転生成プロセスを作成する次元と、それを近似する学習のための新しい証拠の下限トレーニング目標を導出します。
学習した時間反転生成プロセスの近似をシミュレートすると、状態値と次元を共同生成することで、さまざまな次元のデータをサンプリングする効果的な方法が提供されます。
さまざまな次元の分子およびビデオ データセットに対するアプローチを実証し、状態値と次元を個別に生成する固定次元モデルと比較して、テスト時の拡散ガイダンス代入タスクとの互換性の向上と内挿機能の向上を報告します。
要約(オリジナル)
We propose a new class of generative models that naturally handle data of varying dimensionality by jointly modeling the state and dimension of each datapoint. The generative process is formulated as a jump diffusion process that makes jumps between different dimensional spaces. We first define a dimension destroying forward noising process, before deriving the dimension creating time-reversed generative process along with a novel evidence lower bound training objective for learning to approximate it. Simulating our learned approximation to the time-reversed generative process then provides an effective way of sampling data of varying dimensionality by jointly generating state values and dimensions. We demonstrate our approach on molecular and video datasets of varying dimensionality, reporting better compatibility with test-time diffusion guidance imputation tasks and improved interpolation capabilities versus fixed dimensional models that generate state values and dimensions separately.
arxiv情報
著者 | Andrew Campbell,William Harvey,Christian Weilbach,Valentin De Bortoli,Tom Rainforth,Arnaud Doucet |
発行日 | 2023-05-25 17:15:00+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google