Learned Regularization for Inverse Problems: Insights from a Spectral Model

要約

この論文の目的は、逆問題に対する最先端の学習アプローチについて理論的に根拠のある調査を提供することです。
私たちは、基礎となるデータ分布の観点から正則化手法とその収束の拡張定義を提供し、将来の理論的研究への道を開きます。
教師あり学習用に以前に導入された単純なスペクトル学習モデルに基づいて、特定のアーキテクチャとは独立して定式化できる逆問題のさまざまな学習パラダイムのいくつかの重要な特性を調査します。
特に、正則化の特性、バイアス、およびトレーニング データの分布に対する重大な依存性を調査します。
さらに、私たちのフレームワークは、無限次元の極限におけるさまざまなパラダイムの特定の動作を強調し、比較することを可能にします。

要約(オリジナル)

The aim of this paper is to provide a theoretically founded investigation of state-of-the-art learning approaches for inverse problems. We give an extended definition of regularization methods and their convergence in terms of the underlying data distributions, which paves the way for future theoretical studies. Based on a simple spectral learning model previously introduced for supervised learning, we investigate some key properties of different learning paradigms for inverse problems, which can be formulated independently of specific architectures. In particular we investigate the regularization properties, bias, and critical dependence on training data distributions. Moreover, our framework allows to highlight and compare the specific behavior of the different paradigms in the infinite-dimensional limit.

arxiv情報

著者 Martin Burger,Samira Kabri
発行日 2023-12-15 14:50:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.NA, math.NA パーマリンク