要約
フローマッチング(FM)は、連続正規化フロー(CNF)をフィッティングするための学習アルゴリズム群である。条件付きフローマッチング(CFM)は、CNFのマージナルベクトル場が、フローパスの片端または両端を指定した条件付きベクトル場に最小二乗回帰をフィットさせることによって学習できるという事実を利用する。本論文では、ガウス過程(GP)分布でモデル化された、ソースとターゲットのデータ対を接続する潜在確率的経路のインスタンスである“ストリーム”に沿った条件付き確率経路を定義することにより、CFMアルゴリズムを拡張する。GPのユニークな分布特性は、CFMトレーニングの「シミュレーションフリー」な性質を維持するのに役立つ。我々は、CFMのこの一般化が、適度な計算コストで、推定されたマージナルベクトル場の分散を効果的に減少させることができ、それにより、一般的なメトリックの下で生成されたサンプルの品質を向上させることができることを示す。さらに、ストリームにGPを採用することで、相関のある複数の訓練データポイント(時系列など)を柔軟にリンクさせることができる。シミュレーションと、画像と神経時系列データへの応用の両方を通じて、我々の主張を実証的に検証する。
要約(オリジナル)
Flow matching (FM) is a family of training algorithms for fitting continuous normalizing flows (CNFs). Conditional flow matching (CFM) exploits the fact that the marginal vector field of a CNF can be learned by fitting least-squares regression to the conditional vector field specified given one or both ends of the flow path. In this paper, we extend the CFM algorithm by defining conditional probability paths along “streams”, instances of latent stochastic paths that connect data pairs of source and target, which are modeled with Gaussian process (GP) distributions. The unique distributional properties of GPs help preserve the “simulation-free’ nature of CFM training. We show that this generalization of the CFM can effectively reduce the variance in the estimated marginal vector field at a moderate computational cost, thereby improving the quality of the generated samples under common metrics. Additionally, adopting the GP on the streams allows for flexibly linking multiple correlated training data points (e.g., time series). We empirically validate our claim through both simulations and applications to image and neural time series data.
arxiv情報
著者 | Ganchao Wei,Li Ma |
発行日 | 2025-02-03 14:31:17+00:00 |
arxivサイト | arxiv_id(pdf) |