Score identity Distillation: Exponentially Fast Distillation of Pretrained Diffusion Models for One-Step Generation

要約

スコア同一性蒸留 (SiD) を導入します。これは、事前トレーニングされた拡散モデルの生成機能を単一ステップのジェネレーターに蒸留する、革新的なデータフリーの手法です。
SiD は、蒸留中のフラシェ開始距離 (FID) の急激な短縮を促進するだけでなく、元の教師拡散モデルの FID パフォーマンスに近づくか、それを超えることさえあります。
順拡散プロセスを半暗黙的分布として再定式化することで、3 つのスコア関連のアイデンティティを活用して革新的な損失メカニズムを作成します。
このメカニズムは、独自の合成画像を使用してジェネレーターをトレーニングすることで迅速な FID 削減を実現し、実際のデータや逆拡散ベースの生成の必要性を排除し、すべて大幅に短縮された生成時間内で達成されます。
4 つのベンチマーク データセットにわたる評価では、SiD アルゴリズムは蒸留中の高い反復効率を示し、生成品質の点で、1 ステップか数ステップか、データフリーかトレーニング データに依存するかに関係なく、競合する蒸留アプローチを上回っています。
この成果は、拡散蒸留における効率と有効性のベンチマークを再定義するだけでなく、拡散ベースの発電のより広範な分野においても再定義します。
PyTorch 実装は GitHub で公開されます。

要約(オリジナル)

We introduce Score identity Distillation (SiD), an innovative data-free method that distills the generative capabilities of pretrained diffusion models into a single-step generator. SiD not only facilitates an exponentially fast reduction in Fr\’echet inception distance (FID) during distillation but also approaches or even exceeds the FID performance of the original teacher diffusion models. By reformulating forward diffusion processes as semi-implicit distributions, we leverage three score-related identities to create an innovative loss mechanism. This mechanism achieves rapid FID reduction by training the generator using its own synthesized images, eliminating the need for real data or reverse-diffusion-based generation, all accomplished within significantly shortened generation time. Upon evaluation across four benchmark datasets, the SiD algorithm demonstrates high iteration efficiency during distillation and surpasses competing distillation approaches, whether they are one-step or few-step, data-free, or dependent on training data, in terms of generation quality. This achievement not only redefines the benchmarks for efficiency and effectiveness in diffusion distillation but also in the broader field of diffusion-based generation. Our PyTorch implementation will be publicly accessible on GitHub.

arxiv情報

著者 Mingyuan Zhou,Huangjie Zheng,Zhendong Wang,Mingzhang Yin,Hai Huang
発行日 2024-04-05 12:30:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, stat.ML パーマリンク