Boosting Diffusion Guidance via Learning Degradation-Aware Models for Blind Super Resolution

要約

最近、拡散ベースのブラインド超解像 (SR) 手法は、豊富な高周波ディテールを備えた高解像度画像を生成する優れた能力を示していますが、多くの場合、忠実度が犠牲になってディテールが実現されます。
一方、拡散モデルの逆プロセスの修正(拡散誘導)に焦点を当てた別の研究系統では、非盲検 SR について忠実度の高い結果を生成する能力が実証されています。
ただし、これらの方法は既知の劣化カーネルに依存しているため、ブラインド SR に適用するのは困難です。
これらの問題に対処するために、この文書では DADiff を紹介します。
DADiff は、劣化を認識するモデルを拡散ガイダンス フレームワークに組み込んでおり、劣化カーネルを知る必要がなくなります。
さらに、パフォーマンスをさらに向上させるために、入力摂動とガイダンス スカラーという 2 つの新しい手法を提案します。
広範な実験結果は、私たちが提案した方法がブラインド SR ベンチマークで最先端の方法よりも優れたパフォーマンスを持っていることを示しています。

要約(オリジナル)

Recently, diffusion-based blind super-resolution (SR) methods have shown great ability to generate high-resolution images with abundant high-frequency detail, but the detail is often achieved at the expense of fidelity. Meanwhile, another line of research focusing on rectifying the reverse process of diffusion models (i.e., diffusion guidance), has demonstrated the power to generate high-fidelity results for non-blind SR. However, these methods rely on known degradation kernels, making them difficult to apply to blind SR. To address these issues, we present DADiff in this paper. DADiff incorporates degradation-aware models into the diffusion guidance framework, eliminating the need to know degradation kernels. Additionally, we propose two novel techniques — input perturbation and guidance scalar — to further improve our performance. Extensive experimental results show that our proposed method has superior performance over state-of-the-art methods on blind SR benchmarks.

arxiv情報

著者 Shao-Hao Lu,Ren Wang,Ching-Chun Huang,Wei-Chen Chiu
発行日 2025-01-22 15:34:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク