要約
画像取得中にノイズが遍在します。
多くの場合、十分なノイズ除去は画像処理の重要な最初のステップです。
ここ数十年、ディープ ニューラル ネットワーク (DNN) が画像のノイズ除去に広く使用されてきました。
ほとんどの DNN ベースの画像ノイズ除去手法では、大規模なデータセットが必要であるか、教師あり設定に重点が置かれており、単一/ペアのきれいな画像または一連のノイズのある画像が必要です。
これは、画像取得プロセスに大きな負担をもたらします。
さらに、限られた規模のデータセットでトレーニングされたデノイザーは過剰適合を引き起こす可能性があります。
これらの問題を軽減するために、Tucker の低ランク テンソル近似に基づいた画像ノイズ除去のための新しい自己教師ありフレームワークを導入します。
提案された設計では、より少ないパラメータでデノイザーを特徴付け、単一の画像に基づいてトレーニングすることができます。これにより、モデルの一般化性が大幅に向上し、データ取得のコストが削減されます。
合成画像と現実世界のノイズのある画像の両方について広範な実験が行われてきました。
経験的な結果は、私たちが提案した方法が、サンプル内とサンプルの両方で評価された既存の非学習ベースの方法(ローパスフィルター、非局所平均など)、単一画像教師なしデノイザー(DIP、NN+BM3Dなど)よりも優れていることを示しています。
アウトサンプルデータセット。
提案された手法は、いくつかの教師あり手法 (DnCNN など) と同等のパフォーマンスを達成します。
要約(オリジナル)
Noise is ubiquitous during image acquisition. Sufficient denoising is often an important first step for image processing. In recent decades, deep neural networks (DNNs) have been widely used for image denoising. Most DNN-based image denoising methods require a large-scale dataset or focus on supervised settings, in which single/pairs of clean images or a set of noisy images are required. This poses a significant burden on the image acquisition process. Moreover, denoisers trained on datasets of limited scale may incur over-fitting. To mitigate these issues, we introduce a new self-supervised framework for image denoising based on the Tucker low-rank tensor approximation. With the proposed design, we are able to characterize our denoiser with fewer parameters and train it based on a single image, which considerably improves the model’s generalizability and reduces the cost of data acquisition. Extensive experiments on both synthetic and real-world noisy images have been conducted. Empirical results show that our proposed method outperforms existing non-learning-based methods (e.g., low-pass filter, non-local mean), single-image unsupervised denoisers (e.g., DIP, NN+BM3D) evaluated on both in-sample and out-sample datasets. The proposed method even achieves comparable performances with some supervised methods (e.g., DnCNN).
arxiv情報
著者 | Chenyin Gao,Shu Yang,Anru R. Zhang |
発行日 | 2024-08-01 13:53:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google