要約
最近、拡散ベースのブラインドスーパー解像度(SR)メソッドは、豊富な高周波の詳細を備えた高解像度画像を生成する優れた能力を示していますが、詳細は忠実度を犠牲にして達成されることがよくあります。
一方、拡散モデル(すなわち、拡散ガイダンス)の逆プロセスの是正に焦点を当てた別の研究ラインは、非盲目のSRの高忠実度の結果を生成する力を実証しています。
ただし、これらの方法は既知の分解カーネルに依存しており、ブラインドSRに適用することを困難にしています。
これらの問題に対処するために、このペーパーでDADIFFを提示します。
Dadiffは、劣化ガイダンスフレームワークに分解モデルを組み込み、劣化カーネルを知る必要性を排除します。
さらに、パフォーマンスをさらに向上させるために、入力摂動とガイダンススカラーの2つの新しいテクニックを提案します。
広範な実験結果は、提案された方法が、ブラインドSRベンチマークの最先端の方法よりも優れたパフォーマンスを持っていることを示しています。
要約(オリジナル)
Recently, diffusion-based blind super-resolution (SR) methods have shown great ability to generate high-resolution images with abundant high-frequency detail, but the detail is often achieved at the expense of fidelity. Meanwhile, another line of research focusing on rectifying the reverse process of diffusion models (i.e., diffusion guidance), has demonstrated the power to generate high-fidelity results for non-blind SR. However, these methods rely on known degradation kernels, making them difficult to apply to blind SR. To address these issues, we present DADiff in this paper. DADiff incorporates degradation-aware models into the diffusion guidance framework, eliminating the need to know degradation kernels. Additionally, we propose two novel techniques: input perturbation and guidance scalar, to further improve our performance. Extensive experimental results show that our proposed method has superior performance over state-of-the-art methods on blind SR benchmarks.
arxiv情報
著者 | Shao-Hao Lu,Ren Wang,Ching-Chun Huang,Wei-Chen Chiu |
発行日 | 2025-01-23 02:12:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google