A relaxed proximal gradient descent algorithm for convergent plug-and-play with proximal denoiser

要約

この論文では、新しい収束プラグ アンド プレイ (PnP) アルゴリズムを紹介します。
PnP メソッドは、データ忠実度項と正則化項の合計の最小化として定式化されたイメージ逆問題を解くための効率的な反復アルゴリズムです。
PnP メソッドは、Proximal Gradient Descent (PGD) などの近位アルゴリズムで事前トレーニング済みのデノイザーをプラグインすることにより、正則化を実行します。
PnP スキームの収束を確実にするために、多くの研究でディープ デノイザーの特定のパラメーター化が研究されています。
ただし、既存の結果では、デノイザーに関する検証不可能または次善の仮説を必要とするか、逆問題のパラメーターに関する制限条件を想定しています。
これらの制限は、使用中の近位アルゴリズムに起因する可能性があることを観察して、凸関数と弱い凸関数の合計を最小化するための PGD アルゴリズムの緩和バージョンを調べます。
緩和された近位デノイザーを差し込むと、提案された PnP-$\alpha$PGD アルゴリズムがより広い範囲の正則化パラメーターに収束し、より正確な画像復元が可能になることを示します。

要約(オリジナル)

This paper presents a new convergent Plug-and-Play (PnP) algorithm. PnP methods are efficient iterative algorithms for solving image inverse problems formulated as the minimization of the sum of a data-fidelity term and a regularization term. PnP methods perform regularization by plugging a pre-trained denoiser in a proximal algorithm, such as Proximal Gradient Descent (PGD). To ensure convergence of PnP schemes, many works study specific parametrizations of deep denoisers. However, existing results require either unverifiable or suboptimal hypotheses on the denoiser, or assume restrictive conditions on the parameters of the inverse problem. Observing that these limitations can be due to the proximal algorithm in use, we study a relaxed version of the PGD algorithm for minimizing the sum of a convex function and a weakly convex one. When plugged with a relaxed proximal denoiser, we show that the proposed PnP-$\alpha$PGD algorithm converges for a wider range of regularization parameters, thus allowing more accurate image restoration.

arxiv情報

著者 Samuel Hurault,Antonin Chambolle,Arthur Leclaire,Nicolas Papadakis
発行日 2023-01-31 16:11:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV, math.OC, stat.ML パーマリンク