Provably Convergent Data-Driven Convex-Nonconvex Regularization

要約

逆問題を解決するための新たなパラダイムは、深層学習を使用してデータから正則化子を学習することによるものです。
これにより高品質の結果が得られますが、多くの場合、証明可能な保証が犠牲になります。
この研究では、逆問題の凸非凸 (CNC) フレームワーク内でウェルポーズネスと収束正則化がどのように生じるかを示します。
学習された敵対的正則化の方法を CNC フレームワークに適応させるために、新しい入力弱凸ニューラル ネットワーク (IWCNN) 構築を導入します。
経験的に、私たちの方法が以前の敵対的方法の数値的問題を克服することを示します。

要約(オリジナル)

An emerging new paradigm for solving inverse problems is via the use of deep learning to learn a regularizer from data. This leads to high-quality results, but often at the cost of provable guarantees. In this work, we show how well-posedness and convergent regularization arises within the convex-nonconvex (CNC) framework for inverse problems. We introduce a novel input weakly convex neural network (IWCNN) construction to adapt the method of learned adversarial regularization to the CNC framework. Empirically we show that our method overcomes numerical issues of previous adversarial methods.

arxiv情報

著者 Zakhar Shumaylov,Jeremy Budd,Subhadip Mukherjee,Carola-Bibiane Schönlieb
発行日 2023-10-09 15:52:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, stat.ML パーマリンク