Taming Score-Based Diffusion Priors for Infinite-Dimensional Nonlinear Inverse Problems

要約

この研究では、関数空間でベイジアン逆問題を解決できるサンプリング手法を導入します。
尤度の対数凹面を仮定していません。これは、非線形逆問題と互換性があることを意味します。
この方法は、最近定義された無限次元のスコアベースの拡散モデルを学習ベースの事前分布として利用すると同時に、関数空間で定義されたランジュバン型 MCMC アルゴリズムを通じて証明可能な事後サンプリングを可能にします。
従来のノイズ除去による正則化アルゴリズムで確立され、重み付きアニーリングと互換性のある固定小数点手法に触発されて、新しい収束解析が実行されます。
得られた収束限界は、スコアの近似誤差に明示的に依存します。
十分に近似した事後分布を得るには、十分に近似したスコアが不可欠です。
定型化された PDE ベースの例が提供され、収束分析の有効性が実証されています。
最後に、スコアと計算の複雑さの学習に関連するこの方法の課題について説明します。

要約(オリジナル)

This work introduces a sampling method capable of solving Bayesian inverse problems in function space. It does not assume the log-concavity of the likelihood, meaning that it is compatible with nonlinear inverse problems. The method leverages the recently defined infinite-dimensional score-based diffusion models as a learning-based prior, while enabling provable posterior sampling through a Langevin-type MCMC algorithm defined on function spaces. A novel convergence analysis is conducted, inspired by the fixed-point methods established for traditional regularization-by-denoising algorithms and compatible with weighted annealing. The obtained convergence bound explicitly depends on the approximation error of the score; a well-approximated score is essential to obtain a well-approximated posterior. Stylized and PDE-based examples are provided, demonstrating the validity of our convergence analysis. We conclude by presenting a discussion of the method’s challenges related to learning the score and computational complexity.

arxiv情報

著者 Lorenzo Baldassari,Ali Siahkoohi,Josselin Garnier,Knut Solna,Maarten V. de Hoop
発行日 2024-05-24 16:17:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 60Hxx, 60Jxx, 62F15, 65C05, 65N21, 68Q32, 82C31, cs.LG, cs.NA, math.NA, stat.ML パーマリンク