Direct Unsupervised Denoising

要約

従来の教師ありデノイザーは、ノイズの多い入力画像とクリーンなターゲット画像のペアを使用してトレーニングされます。
彼らは、可能性のあるクリーンな画像に対する事後分布の中心傾向を予測する方法を学習します。
たとえば、一般的な二次損失関数でトレーニングした場合、ネットワークの出力は最小平均二乗誤差 (MMSE) 推定値に対応します。
変分オートエンコーダー (VAE) に基づく教師なしデノイザーは、トレーニング入力としてペアになっていないノイズの多いデータのみを必要としながら、最先端の結果を達成することに成功しました。
従来の教師ありアプローチとは対照的に、教師なしデノイザーは MMSE 推定などの単一の予測を直接生成しませんが、ノイズを含む入力に対応するクリーンな解の事後分布からサンプルを抽出することができます。
推論中に MMSE 推定値を近似するには、教師なしメソッドで多数のサンプルを作成して描画する必要がありますが、これは計算コストのかかるプロセスであり、このアプローチは多くの状況では適用できません。
ここでは、中心傾向を直接予測するために VAE と並行して決定論的ネットワークをトレーニングする代替アプローチを紹介します。
私たちの方法は、数分の1の計算コストで教師なし方法によって達成される結果を超える結果を達成します。

要約(オリジナル)

Traditional supervised denoisers are trained using pairs of noisy input and clean target images. They learn to predict a central tendency of the posterior distribution over possible clean images. When, e.g., trained with the popular quadratic loss function, the network’s output will correspond to the minimum mean square error (MMSE) estimate. Unsupervised denoisers based on Variational AutoEncoders (VAEs) have succeeded in achieving state-of-the-art results while requiring only unpaired noisy data as training input. In contrast to the traditional supervised approach, unsupervised denoisers do not directly produce a single prediction, such as the MMSE estimate, but allow us to draw samples from the posterior distribution of clean solutions corresponding to the noisy input. To approximate the MMSE estimate during inference, unsupervised methods have to create and draw a large number of samples – a computationally expensive process – rendering the approach inapplicable in many situations. Here, we present an alternative approach that trains a deterministic network alongside the VAE to directly predict a central tendency. Our method achieves results that surpass the results achieved by the unsupervised method at a fraction of the computational cost.

arxiv情報

著者 Benjamin Salmon,Alexander Krull
発行日 2023-10-27 13:02:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク