SupResDiffGAN a new approach for the Super-Resolution task

要約

この作業では、超解像度タスクの生成的敵対ネットワーク(GANS)と拡散モデルの強みを組み合わせた新しいハイブリッドアーキテクチャであるSupresdiffganを紹介します。
潜在的な空間表現を活用し、拡散ステップの数を減らすことにより、競争力のある知覚品質を維持しながら、他の拡散ベースの超解像度モデルよりも拡散性の推論時間が大幅に速くなります。
差別装置の過剰適合を防ぐために、適応型ノイズの腐敗を提案し、トレーニング中に発電機と判別器の間の安定したバランスを確保します。
ベンチマークデータセットでの広範な実験は、私たちのアプローチが、効率と画質のI $^2 $ SBなどの従来の拡散モデルよりも優れていることを示しています。
この作業は、拡散とGANベースの方法のパフォーマンスギャップを埋め、高解像度の画像生成における拡散モデルのリアルタイムアプリケーションの基礎を築きます。

要約(オリジナル)

In this work, we present SupResDiffGAN, a novel hybrid architecture that combines the strengths of Generative Adversarial Networks (GANs) and diffusion models for super-resolution tasks. By leveraging latent space representations and reducing the number of diffusion steps, SupResDiffGAN achieves significantly faster inference times than other diffusion-based super-resolution models while maintaining competitive perceptual quality. To prevent discriminator overfitting, we propose adaptive noise corruption, ensuring a stable balance between the generator and the discriminator during training. Extensive experiments on benchmark datasets show that our approach outperforms traditional diffusion models such as SR3 and I$^2$SB in efficiency and image quality. This work bridges the performance gap between diffusion- and GAN-based methods, laying the foundation for real-time applications of diffusion models in high-resolution image generation.

arxiv情報

著者 Dawid Kopeć,Wojciech Kozłowski,Maciej Wizerkaniuk,Dawid Krutul,Jan Kocoń,Maciej Zięba
発行日 2025-04-18 10:55:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク