要約
レティネックス モデルは、低照度画像強調の最も代表的で効果的な方法の 1 つです。
ただし、Retinex モデルはノイズの問題に明示的に取り組んでおらず、不十分な拡張結果を示しています。
近年、その優れた性能により、深層学習モデルは低照度画像の強調に広く使用されています。
ただし、これらの方法には 2 つの制限があります。i) 望ましいパフォーマンスは、多数のラベル付きデータが利用可能な場合にディープ ラーニングによってのみ達成できます。
ただし、大規模な低光/通常光のペア データをキュレートすることは容易ではありません。
ii) ディープ ラーニングはブラック ボックス モデルであることで有名です [1]。
彼らの内部の仕組みを説明し、彼らの行動を理解することは困難です。
この論文では、シーケンシャル Retinex 分解戦略を使用して、画像強調とノイズ除去を同時に行うための Retinex 理論に基づくプラグ アンド プレイ フレームワークを設計します。
一方、畳み込みニューラル ネットワーク ベース (CNN ベース) のデノイザーを提案されたプラグ アンド プレイ フレームワークに開発し、反射コンポーネントを生成します。
最終的に強化された画像は、照明と反射率をガンマ補正と統合することによって生成されます。
提案されたプラグアンドプレイ フレームワークは、事後およびアドホックの両方の解釈可能性を容易にすることができます。
さまざまなデータセットでの広範な実験により、私たちのフレームワークが画像強調とノイズ除去の両方で最先端の方法よりも優れていることが示されました。
要約(オリジナル)
The Retinex model is one of the most representative and effective methods for low-light image enhancement. However, the Retinex model does not explicitly tackle the noise problem, and shows unsatisfactory enhancing results. In recent years, due to the excellent performance, deep learning models have been widely used in low-light image enhancement. However, these methods have two limitations: i) The desirable performance can only be achieved by deep learning when a large number of labeled data are available. However, it is not easy to curate massive low/normal-light paired data; ii) Deep learning is notoriously a black-box model [1]. It is difficult to explain their inner-working mechanism and understand their behaviors. In this paper, using a sequential Retinex decomposition strategy, we design a plug-and-play framework based on the Retinex theory for simultaneously image enhancement and noise removal. Meanwhile, we develop a convolutional neural network-based (CNN-based) denoiser into our proposed plug-and-play framework to generate a reflectance component. The final enhanced image is produced by integrating the illumination and reflectance with gamma correction. The proposed plug-and-play framework can facilitate both post hoc and ad hoc interpretability. Extensive experiments on different datasets demonstrate that our framework outcompetes the state-of-the-art methods in both image enhancement and denoising.
arxiv情報
著者 | Tingting Wu,Wenna Wu,Ying Yang,Feng-Lei Fan,Tieyong Zeng |
発行日 | 2023-02-17 12:03:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google