Unsupervised network for low-light enhancement

要約

教師ありネットワークは、ペア画像を用いた低照度強調のタスクに対処する。しかし、低照度/クリーンなペア画像を多種多様に収集することは、撮影中にシーンを静止させる必要があるため、面倒な作業である。本論文では、コンテキストガイド付き照明適応型ノルム(CIN)を用いた教師なし低照度エンハンスメントネットワークを提案する。粗目から細目への手法に触発され、2つのステージでこのタスクに対処することを提案する。ステージ-Iでは、ピクセルアンプモジュール(PAM)を用いて、視認性と美的品質を全体的に向上させた粗い推定値を生成する。ステージ-IIでは、CINを使用して、画像の飽和暗黒画素とシーン特性をさらに強化します。さまざまなアブレーション研究により、画像の可視品質を向上させる上でPAMとCINが重要であることが示されています。次に、1枚の低照度画像から複数の強調画像を生成できる領域適応型単一入力複数出力(SIMO)モデルを提案します。SIMOの目的は、ユーザーが強化された画像のプールから好みの画像を選択できるようにすることである。SIMOの結果を人間の主観で分析すると、好みの画像の分布が異なることがわかり、SIMO型モデルの重要性を裏付けている。最後に、低照度シーンとクリーンシーンのペアリングを行わない低照度道路シーン(LLRS)データセットを提案します。既存のデータセットとは異なり、LLRSのクリーンシーンと低照度シーンは、固定カメラ設定で撮影された実写である。公開されているデータセットと提案データセットを徹底的に比較した結果、我々のモデルの結果が先行技術を定量的・定性的に上回ることが明らかになった。

要約(オリジナル)

Supervised networks address the task of low-light enhancement using paired images. However, collecting a wide variety of low-light/clean paired images is tedious as the scene needs to remain static during imaging. In this paper, we propose an unsupervised low-light enhancement network using contextguided illumination-adaptive norm (CIN). Inspired by coarse to fine methods, we propose to address this task in two stages. In stage-I, a pixel amplifier module (PAM) is used to generate a coarse estimate with an overall improvement in visibility and aesthetic quality. Stage-II further enhances the saturated dark pixels and scene properties of the image using CIN. Different ablation studies show the importance of PAM and CIN in improving the visible quality of the image. Next, we propose a region-adaptive single input multiple output (SIMO) model that can generate multiple enhanced images from a single lowlight image. The objective of SIMO is to let users choose the image of their liking from a pool of enhanced images. Human subjective analysis of SIMO results shows that the distribution of preferred images varies, endorsing the importance of SIMO-type models. Lastly, we propose a low-light road scene (LLRS) dataset having an unpaired collection of low-light and clean scenes. Unlike existing datasets, the clean and low-light scenes in LLRS are real and captured using fixed camera settings. Exhaustive comparisons on publicly available datasets, and the proposed dataset reveal that the results of our model outperform prior art quantitatively and qualitatively.

arxiv情報

著者 Praveen Kandula,Maitreya Suin,A. N. Rajagopalan
発行日 2023-06-05 13:52:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, eess.IV パーマリンク