Truncated Consistency Models

要約

一貫性モデルが最近導入され、初期ノイズからの確率フローオード(PF ODE)の解(つまり、データ)を直接予測することにより、拡散モデルからのサンプリングを加速しました。
ただし、一貫性モデルのトレーニングでは、PFオード軌跡に沿ってすべての中間点を対応するエンドポイントにマッピングすることを学習する必要があります。
このタスクは、PF OdeのノイズからDATAへのマッピングのみに関係する1段階の生成の究極の目的よりもはるかに困難です。
このトレーニングパラダイムは、一貫性モデルの1段階の生成パフォーマンスを制限することが経験的にわかります。
この問題に対処するために、一貫性トレーニングを切り捨てられた時間範囲に一般化します。これにより、モデルは以前の時間ステップで除去タスクを無視し、生成に能力を集中できます。
一貫性関数の新しいパラメーター化と、切り捨てられた時間トレーニングが崩壊から些細なソリューションへのトレーニングを防ぐ2段階のトレーニング手順を提案します。
CIFAR-10およびImagenet $ 64 \ Times64 $データセットの実験は、2 $ \ timesを使用して、ICT-Deepなどの最先端の一貫性モデルよりも優れたワンステップと2段階のFIDを達成することを示しています。
$小規模なネットワーク。
プロジェクトページ:https://truncated-cm.github.io/

要約(オリジナル)

Consistency models have recently been introduced to accelerate sampling from diffusion models by directly predicting the solution (i.e., data) of the probability flow ODE (PF ODE) from initial noise. However, the training of consistency models requires learning to map all intermediate points along PF ODE trajectories to their corresponding endpoints. This task is much more challenging than the ultimate objective of one-step generation, which only concerns the PF ODE’s noise-to-data mapping. We empirically find that this training paradigm limits the one-step generation performance of consistency models. To address this issue, we generalize consistency training to the truncated time range, which allows the model to ignore denoising tasks at earlier time steps and focus its capacity on generation. We propose a new parameterization of the consistency function and a two-stage training procedure that prevents the truncated-time training from collapsing to a trivial solution. Experiments on CIFAR-10 and ImageNet $64\times64$ datasets show that our method achieves better one-step and two-step FIDs than the state-of-the-art consistency models such as iCT-deep, using more than 2$\times$ smaller networks. Project page: https://truncated-cm.github.io/

arxiv情報

著者 Sangyun Lee,Yilun Xu,Tomas Geffner,Giulia Fanti,Karsten Kreis,Arash Vahdat,Weili Nie
発行日 2025-01-23 18:56:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク