要約
近年、拡散モデルは深い生成モデリングにおける新しい最先端のモデルになり、生成的敵対的ネットワークの長年の支配を終わらせました。
除去の原則による正則化に触発されて、脱化タスクのために訓練された潜在的な拡散モデルを統合し、半尺度分割を使用して分散フレームワークに統合するアプローチを紹介し、その正規化プロパティを活用します。
このアプローチは、さまざまなイメージングアプリケーションで簡単に満たすことができる適切な条件下で、高品質の結果を達成しながら計算コストを削減できます。
次に、潜在的な除去(RELD)による正則化と呼ばれる提案された戦略は、画像の除去、脱bluring、および超解像度のタスクについて、自然画像のデータセットでテストされます。
数値実験は、RELDが他の最先端の方法と競争力があることを示しています。特に、知覚品質メトリックを使用して評価された場合、顕著な結果を達成します。
要約(オリジナル)
In recent years, Diffusion Models have become the new state-of-the-art in deep generative modeling, ending the long-time dominance of Generative Adversarial Networks. Inspired by the Regularization by Denoising principle, we introduce an approach that integrates a Latent Diffusion Model, trained for the denoising task, into a variational framework using Half-Quadratic Splitting, exploiting its regularization properties. This approach, under appropriate conditions that can be easily met in various imaging applications, allows for reduced computational cost while achieving high-quality results. The proposed strategy, called Regularization by Latent Denoising (RELD), is then tested on a dataset of natural images, for image denoising, deblurring, and super-resolution tasks. The numerical experiments show that RELD is competitive with other state-of-the-art methods, particularly achieving remarkable results when evaluated using perceptual quality metrics.
arxiv情報
著者 | Pasquale Cascarano,Lorenzo Stacchio,Andrea Sebastiani,Alessandro Benfenati,Ulugbek S. Kamilov,Gustavo Marfia |
発行日 | 2025-03-28 16:04:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google