要約
この論文では、線形逆問題を解決するためにスパース促進正則化子を学習する新しいアプローチを紹介します。
$B$ で示される最適な合成演算子を選択するバイレベル最適化フレームワークを開発します。これは、解のスパース性を促進しながら逆問題を正則化します。
この方法では、基礎となるデータの統計的特性を利用し、$B$ の選択を通じて事前の知識を組み込みます。
最適化問題の適切な設定性を確立し、学習プロセスの理論的保証を提供し、サンプルの複雑さの限界を提示します。
このアプローチは、既知の演算子のコンパクトな摂動やマザー ウェーブレットの学習の問題などの例を通じて実証され、事前の知識を正則化フレームワークに組み込む際の柔軟性を示しています。
この研究は、微分不可能な規範に対処し、無限次元でのスパース正則化のためのデータ駆動型アプローチを提案することにより、チホノフ正則化におけるこれまでの取り組みを拡張します。
要約(オリジナル)
This paper introduces a novel approach to learning sparsity-promoting regularizers for solving linear inverse problems. We develop a bilevel optimization framework to select an optimal synthesis operator, denoted as $B$, which regularizes the inverse problem while promoting sparsity in the solution. The method leverages statistical properties of the underlying data and incorporates prior knowledge through the choice of $B$. We establish the well-posedness of the optimization problem, provide theoretical guarantees for the learning process, and present sample complexity bounds. The approach is demonstrated through examples, including compact perturbations of a known operator and the problem of learning the mother wavelet, showcasing its flexibility in incorporating prior knowledge into the regularization framework. This work extends previous efforts in Tikhonov regularization by addressing non-differentiable norms and proposing a data-driven approach for sparse regularization in infinite dimensions.
arxiv情報
著者 | Giovanni S. Alberti,Ernesto De Vito,Tapio Helin,Matti Lassas,Luca Ratti,Matteo Santacesaria |
発行日 | 2024-12-20 16:26:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google