A relaxed proximal gradient descent algorithm for convergent plug-and-play with proximal denoiser

要約

タイトル:プロキシマルノイザーを用いた収束性プラグアンドプレイとのための緩和プロキシマル勾配降下アルゴリズム
要約:
– 本論文では、新しい収束するプラグアンドプレイ(PnP)アルゴリズムを提案している。
– PnPメソッドは、データフィデリティ項と正則化項の和で表される画像逆問題を解決するための効率的な反復アルゴリズムである。
– PnPメソッドは、事前にトレーニングされたノイズ除去器をプロキシマル勾配降下(PGD)などのプロキシマルアルゴリズムに挿入することで正則化を行う。
– PnPスキームの収束を保証するために、多くの研究では深いノイズ除去器の特定のパラメータ化を研究している。
– 現存の結果には、ノイズ除去器に関して検証できないか、最適な仮定がない、または逆問題のパラメータに制限的な条件があるなどの制限がある。
– これらの制限は、使用されているプロキシマルアルゴリズムによるものであるため、緩和したPGDアルゴリズムの研究を行い、凸関数と弱凸関数の和を最小化するためのアルゴリズムを導入している。
– 提案されたPnP-$\alpha$PGDアルゴリズムは、緩和したプロキシマルノイズ除去器と組み合わせることで、より幅広い正則化パラメータ範囲で収束することが示されており、より正確な画像復元が可能になる。

要約(オリジナル)

This paper presents a new convergent Plug-and-Play (PnP) algorithm. PnP methods are efficient iterative algorithms for solving image inverse problems formulated as the minimization of the sum of a data-fidelity term and a regularization term. PnP methods perform regularization by plugging a pre-trained denoiser in a proximal algorithm, such as Proximal Gradient Descent (PGD). To ensure convergence of PnP schemes, many works study specific parametrizations of deep denoisers. However, existing results require either unverifiable or suboptimal hypotheses on the denoiser, or assume restrictive conditions on the parameters of the inverse problem. Observing that these limitations can be due to the proximal algorithm in use, we study a relaxed version of the PGD algorithm for minimizing the sum of a convex function and a weakly convex one. When plugged with a relaxed proximal denoiser, we show that the proposed PnP-$\alpha$PGD algorithm converges for a wider range of regularization parameters, thus allowing more accurate image restoration.

arxiv情報

著者 Samuel Hurault,Antonin Chambolle,Arthur Leclaire,Nicolas Papadakis
発行日 2023-04-05 12:20:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.LG, eess.IV, math.OC, stat.ML パーマリンク