Self-supervised Denoising via Low-rank Tensor Approximated Convolutional Neural Network

要約

ノイズは、画像取得中に遍在します。
十分なノイズ除去は、多くの場合、画像処理の重要な最初のステップです。
ここ数十年で、ディープ ニューラル ネットワーク (DNN) が画像のノイズ除去に広く使用されてきました。
ほとんどの DNN ベースの画像ノイズ除去方法では、大規模なデータセットが必要になるか、監視された設定に焦点が当てられます。この場合、クリーンな画像の 1 つまたはペア、またはノイズの多い画像のセットが必要になります。
これは、画像取得プロセスに大きな負担をもたらします。
さらに、限られた規模のデータセットでトレーニングされたデノイザーは、オーバーフィッティングを引き起こす可能性があります。
これらの問題を軽減するために、Tucker の低ランク テンソル近似に基づく画像ノイズ除去のための新しい自己教師ありフレームワークを導入します。
提案された設計では、より少ないパラメーターでデノイザーを特徴付け、単一の画像に基づいてトレーニングすることができます。これにより、モデルの一般化可能性が大幅に向上し、データ取得のコストが削減されます。
合成画像と実世界のノイズ画像の両方で広範な実験が行われました。
経験的結果は、提案された方法が、サンプル内と
アウトサンプル データセット。
提案された方法は、いくつかの教師あり方法 (DnCNN など) と同等のパフォーマンスを達成します。

要約(オリジナル)

Noise is ubiquitous during image acquisition. Sufficient denoising is often an important first step for image processing. In recent decades, deep neural networks (DNNs) have been widely used for image denoising. Most DNN-based image denoising methods require a large-scale dataset or focus on supervised settings, in which single/pairs of clean images or a set of noisy images are required. This poses a significant burden on the image acquisition process. Moreover, denoisers trained on datasets of limited scale may incur over-fitting. To mitigate these issues, we introduce a new self-supervised framework for image denoising based on the Tucker low-rank tensor approximation. With the proposed design, we are able to characterize our denoiser with fewer parameters and train it based on a single image, which considerably improves the model generalizability and reduces the cost of data acquisition. Extensive experiments on both synthetic and real-world noisy images have been conducted. Empirical results show that our proposed method outperforms existing non-learning-based methods (e.g., low-pass filter, non-local mean), single-image unsupervised denoisers (e.g., DIP, NN+BM3D) evaluated on both in-sample and out-sample datasets. The proposed method even achieves comparable performances with some supervised methods (e.g., DnCNN).

arxiv情報

著者 Chenyin Gao,Shu Yang,Anru R. Zhang
発行日 2022-09-26 14:11:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, stat.AP, stat.ML パーマリンク