Exploiting Diffusion Prior for Real-World Image Super-Resolution

要約

タイトル:実世界の画像スーパーレゾリューションのための拡散事前知識の活用

要約:

– 事前に訓練されたテキストから画像への変換モデルにカプセル化された事前知識を活用する新しいアプローチを提案している。
– 時間感知エンコーダーを使用することで、プリトレーニングされた合成モデルを変更することなく、有望な復元結果が得られ、生成事前知識を保存し、トレーニングコストを最小限に抑えることができる。
– 拡散モデルの本来の確率性に起因する精度の損失を補うために、制御可能な特徴包装モジュールを導入し、推論プロセス中にスカラー値を調整するだけで品質と精度をバランスさせることができる。
– また、事前に訓練された拡散モデルの固定サイズの制約を克服するために、プログレッシブアグリゲーションサンプリング戦略を開発し、任意のサイズの解像度に適応できるようにする。
– 合成および実世界のベンチマークを使用した包括的な評価により、提案手法が現在の最先端手法よりも優れていることが示されている。

要約(オリジナル)

We present a novel approach to leverage prior knowledge encapsulated in pre-trained text-to-image diffusion models for blind super-resolution (SR). Specifically, by employing our time-aware encoder, we can achieve promising restoration results without altering the pre-trained synthesis model, thereby preserving the generative prior and minimizing training cost. To remedy the loss of fidelity caused by the inherent stochasticity of diffusion models, we introduce a controllable feature wrapping module that allows users to balance quality and fidelity by simply adjusting a scalar value during the inference process. Moreover, we develop a progressive aggregation sampling strategy to overcome the fixed-size constraints of pre-trained diffusion models, enabling adaptation to resolutions of any size. A comprehensive evaluation of our method using both synthetic and real-world benchmarks demonstrates its superiority over current state-of-the-art approaches.

arxiv情報

著者 Jianyi Wang,Zongsheng Yue,Shangchen Zhou,Kelvin C. K. Chan,Chen Change Loy
発行日 2023-05-11 17:55:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク