要約
この研究では、新しいタイプの正則化生成事前分布を導入することにより、圧縮センシング (CS) における基本的な線形逆問題に取り組んでいます。
私たちが提案する方法は、古典的な辞書ベースの CS、特に疎ベイジアン学習 (SBL) のアイデアを利用して、疎解に対する強力な正則化を統合します。
同時に、条件付きガウス性の概念を活用することにより、生成モデルからトレーニング データへの適応性も組み込まれています。
ただし、ほとんどの最先端の生成モデルとは異なり、少数の圧縮されたノイズの多いデータ サンプルから学習することができ、逆問題を解くための最適化アルゴリズムは必要ありません。
さらに、ディリクレの従来のネットワークと同様に、私たちのモデルは不確実性の定量化への応用を可能にする前に共役をパラメータ化します。
私たちは、変分推論の概念を通じて私たちのアプローチを理論的にサポートし、さまざまな種類の圧縮可能な信号を使用して経験的に検証します。
要約(オリジナル)
This work addresses the fundamental linear inverse problem in compressive sensing (CS) by introducing a new type of regularizing generative prior. Our proposed method utilizes ideas from classical dictionary-based CS and, in particular, sparse Bayesian learning (SBL), to integrate a strong regularization towards sparse solutions. At the same time, by leveraging the notion of conditional Gaussianity, it also incorporates the adaptability from generative models to training data. However, unlike most state-of-the-art generative models, it is able to learn from a few compressed and noisy data samples and requires no optimization algorithm for solving the inverse problem. Additionally, similar to Dirichlet prior networks, our model parameterizes a conjugate prior enabling its application for uncertainty quantification. We support our approach theoretically through the concept of variational inference and validate it empirically using different types of compressible signals.
arxiv情報
著者 | Benedikt Böck,Sadaf Syed,Wolfgang Utschick |
発行日 | 2024-11-14 14:37:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google