Direct Unsupervised Denoising

要約

従来の教師ありノイズ除去器は、ノイズのある入力画像とクリーンなターゲット画像のペアを用いて学習される。それらは、可能性のあるクリーンな画像に対する事後分布の中心傾向を予測するように学習する。例えば、一般的な2次損失関数で学習した場合、ネットワークの出力は最小平均2乗誤差(MMSE)推定値に対応する。Variational AutoEncoders (VAE)に基づく教師なしノイズ除去器は、訓練入力として対になっていないノイズデータのみを必要としながら、最先端の結果を達成することに成功している。従来の教師ありアプローチとは対照的に、教師なしノイズ除去器は、MMSE推定値のような単一の予測値を直接生成するのではなく、ノイズのある入力に対応するクリーンな解の事後分布からサンプルを抽出することができる。推論中にMMSE推定値を近似するために、教師なし手法は多数のサンプルを作成し、計算コストのかかるプロセスである描画を行わなければならず、多くの状況においてこのアプローチは適用できない。ここでは、中心傾向を直接予測するために、VAEと並行して決定論的ネットワークを学習する代替アプローチを示す。我々の手法は、ほんのわずかな計算コストで、教師なし手法で達成された結果を上回る結果を達成する。

要約(オリジナル)

Traditional supervised denoisers are trained using pairs of noisy input and clean target images. They learn to predict a central tendency of the posterior distribution over possible clean images. When, e.g., trained with the popular quadratic loss function, the network’s output will correspond to the minimum mean square error (MMSE) estimate. Unsupervised denoisers based on Variational AutoEncoders (VAEs) have succeeded in achieving state-of-the-art results while requiring only unpaired noisy data as training input. In contrast to the traditional supervised approach, unsupervised denoisers do not directly produce a single prediction, such as the MMSE estimate, but allow us to draw samples from the posterior distribution of clean solutions corresponding to the noisy input. To approximate the MMSE estimate during inference, unsupervised methods have to create and draw a large number of samples – a computationally expensive process – rendering the approach inapplicable in many situations. Here, we present an alternative approach that trains a deterministic network alongside the VAE to directly predict a central tendency. Our method achieves results that surpass the results achieved by the unsupervised method at a fraction of the computational cost.

arxiv情報

著者 Benjamin Salmon,Alexander Krull
発行日 2023-12-04 17:38:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, eess.IV パーマリンク