Score-based generative models learn manifold-like structures with constrained mixing

要約

スコアベース生成モデル (SBM) は、低次元多様体でサポートされるデータ分布をどのように学習するのでしょうか?
トレーニング済み SBM のスコア モデルを、その線形近似と局所特徴ベクトルが広がる部分空間を通じて調査します。
拡散中にノイズが減少するにつれて、局所的な次元が増加し、異なるサンプルシーケンス間でより多様になります。
重要なことに、学習されたベクトル場は、多様体内の非保存的な場によってサンプルを混合しますが、非多様体方向にエネルギー関数があるかのように通常の投影でノイズを除去します。
各ノイズ レベルで、局所的な特徴が広がる部分空間は実効密度関数と重なり合います。
これらの観察は、SBM がデータ分布の多様体状の構造を慎重に維持しながら、サンプルと学習されたスコア フィールドを柔軟に混合できることを示唆しています。

要約(オリジナル)

How do score-based generative models (SBMs) learn the data distribution supported on a low-dimensional manifold? We investigate the score model of a trained SBM through its linear approximations and subspaces spanned by local feature vectors. During diffusion as the noise decreases, the local dimensionality increases and becomes more varied between different sample sequences. Importantly, we find that the learned vector field mixes samples by a non-conservative field within the manifold, although it denoises with normal projections as if there is an energy function in off-manifold directions. At each noise level, the subspace spanned by the local features overlap with an effective density function. These observations suggest that SBMs can flexibly mix samples with the learned score field while carefully maintaining a manifold-like structure of the data distribution.

arxiv情報

著者 Li Kevin Wenliang,Ben Moran
発行日 2023-11-16 15:15:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, stat.ML パーマリンク