Variational Bayes image restoration with compressive autoencoders

要約

逆問題の正則化は、計算画像処理において最も重要です。
効率的な画像表現を学習するニューラル ネットワークの機能は、最近、強力なデータ駆動型の正則化機能を設計するために利用されています。
最先端のプラグアンドプレイ手法は、ニューラル デノイザーによって提供される暗黙的な正則化に依存していますが、代替ベイジアン アプローチでは、生成モデルの潜在空間における最大事後推定 (MAP) 推定が考慮され、したがって明示的な正則化が行われます。
ただし、最先端の深層生成モデルは、デノイザーと比較して膨大な量のトレーニング データを必要とします。
さらに、その複雑さにより、潜在 MAP の最適化が妨げられます。
この研究では、潜在推定に圧縮オートエンコーダを使用することを提案します。
これらのネットワークは、柔軟な潜在事前確率を備えた変分オートエンコーダーと見なすことができ、最先端の生成モデルよりも小さく、トレーニングが容易です。
次に、変分ベイズ潜在推定 (VBLE) アルゴリズムを導入します。これは、変分推論のフレームワーク内でこの推定を実行します。
これにより、迅速かつ簡単な(近似的な)事後サンプリングが可能になります。
画像データセット BSD および FFHQ の実験結果は、VBLE が最先端のプラグ アンド プレイ手法と同等のパフォーマンスに達しながら、他の既存の事後サンプリング手法よりも迅速に不確実性を定量化できることを示しています。

要約(オリジナル)

Regularization of inverse problems is of paramount importance in computational imaging. The ability of neural networks to learn efficient image representations has been recently exploited to design powerful data-driven regularizers. While state-of-the-art plug-and-play methods rely on an implicit regularization provided by neural denoisers, alternative Bayesian approaches consider Maximum A Posteriori (MAP) estimation in the latent space of a generative model, thus with an explicit regularization. However, state-of-the-art deep generative models require a huge amount of training data compared to denoisers. Besides, their complexity hampers the optimization of the latent MAP. In this work, we propose to use compressive autoencoders for latent estimation. These networks, which can be seen as variational autoencoders with a flexible latent prior, are smaller and easier to train than state-of-the-art generative models. We then introduce the Variational Bayes Latent Estimation (VBLE) algorithm, which performs this estimation within the framework of variational inference. This allows for fast and easy (approximate) posterior sampling. Experimental results on image datasets BSD and FFHQ demonstrate that VBLE reaches similar performance than state-of-the-art plug-and-play methods, while being able to quantify uncertainties faster than other existing posterior sampling techniques.

arxiv情報

著者 Maud Biquard,Marie Chabert,Thomas Oberlin
発行日 2023-11-29 15:49:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, stat.ML パーマリンク