要約
事前の情報を逆問題に組み込む。
最大事後推定による方法は、ロバストな逆問題の解決を容易にする重要な手法です。
この論文では、複合ガウス (CG) クラスの分布内で問題固有の統計的事前選択を可能にする、線形逆問題に対する 2 つの新しいアプローチを考案します。
CG クラスには、スパーシティ ベースのアプローチを含む、信号および画像の再構成方法で一般的に使用される多くの事前分布が組み込まれています。
開発された最初の方法は、一般化複合ガウス最小二乗法 (G-CG-LS) と呼ばれる反復アルゴリズムです。これは、正則化によって CG 事前分布が強制される正則化最小二乗目的関数を最小化します。
次に、G-CG-LS がアンロールまたは展開されて、2 番目の方法が提供されます。これは、事前情報を学習する、DR-CG-Net と呼ばれる新しい深層正則化 (DR) ニューラル ネットワークです。
G-CG-LS の収束特性に関する詳細な計算理論と、DR-CG-Net の徹底的な数値実験が提供されます。
CG 事前の包括的な性質により、これらの実験は、DR-CG-Net が断層撮影イメージングと圧縮センシングにおいて、特に困難な低トレーニング シナリオにおいて、競合する従来技術の方法よりも優れていることを示しています。
要約(オリジナル)
Incorporating prior information into inverse problems, e.g. via maximum-a-posteriori estimation, is an important technique for facilitating robust inverse problem solutions. In this paper, we devise two novel approaches for linear inverse problems that permit problem-specific statistical prior selections within the compound Gaussian (CG) class of distributions. The CG class subsumes many commonly used priors in signal and image reconstruction methods including those of sparsity-based approaches. The first method developed is an iterative algorithm, called generalized compound Gaussian least squares (G-CG-LS), that minimizes a regularized least squares objective function where the regularization enforces a CG prior. G-CG-LS is then unrolled, or unfolded, to furnish our second method, which is a novel deep regularized (DR) neural network, called DR-CG-Net, that learns the prior information. A detailed computational theory on convergence properties of G-CG-LS and thorough numerical experiments for DR-CG-Net are provided. Due to the comprehensive nature of the CG prior, these experiments show that DR-CG-Net outperforms competitive prior art methods in tomographic imaging and compressive sensing, especially in challenging low-training scenarios.
arxiv情報
著者 | Carter Lyons,Raghu G. Raj,Margaret Cheney |
発行日 | 2024-03-15 13:35:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google