You Only Need One Color Space: An Efficient Network for Low-light Image Enhancement

要約

低光量画像強化 (LLIE) タスクは、破損した低光量画像から詳細と視覚情報を復元する傾向があります。
既存の手法のほとんどは、sRGB および HSV 色空間上のディープ ニューラル ネットワーク (DNN) によって、低光量/通常光量の画像間のマッピング関数を学習します。
それにもかかわらず、強調には画像信号の増幅が含まれ、これらの色空間を信号対雑音比が低い低照度の画像に適用すると、強調プロセスに感度と不安定性が生じる可能性があります。
その結果、強調された画像に色アーチファクトと明るさアーチファクトが存在することになります。
この問題を軽減するために、水平/垂直強度 (HVI) という名前の新しいトレーニング可能な色空間を提案します。
RGB チャネルから明るさと色を切り離して強調時の不安定性を軽減するだけでなく、トレーニング可能なパラメーターにより、さまざまな照明範囲の低照度画像にも適応します。
さらに、HVI 空間で分離された画像の明るさと色の処理専用の 2 つのブランチを備えた新しい色と強度の分離ネットワーク (CIDNet) を設計します。
CIDNet 内では、軽量クロスアテンション (LCA) モジュールを導入して、両方のブランチの画像構造とコンテンツ情報の間の相互作用を促進するとともに、低照度画像のノイズを抑制します。
最後に、提案された CIDNet が 11 のデータセットに対して最先端の方法よりも優れていることを示すために、22 の定量的および定性的な実験を実施しました。
コードは https://github.com/Fediory/HVI-CIDNet で入手できます。

要約(オリジナル)

Low-Light Image Enhancement (LLIE) task tends to restore the details and visual information from corrupted low-light images. Most existing methods learn the mapping function between low/normal-light images by Deep Neural Networks (DNNs) on sRGB and HSV color space. Nevertheless, enhancement involves amplifying image signals, and applying these color spaces to low-light images with a low signal-to-noise ratio can introduce sensitivity and instability into the enhancement process. Consequently, this results in the presence of color artifacts and brightness artifacts in the enhanced images. To alleviate this problem, we propose a novel trainable color space, named Horizontal/Vertical-Intensity (HVI). It not only decouples brightness and color from RGB channels to mitigate the instability during enhancement but also adapts to low-light images in different illumination ranges due to the trainable parameters. Further, we design a novel Color and Intensity Decoupling Network (CIDNet) with two branches dedicated to processing the decoupled image brightness and color in the HVI space. Within CIDNet, we introduce the Lightweight Cross-Attention (LCA) module to facilitate interaction between image structure and content information in both branches, while also suppressing noise in low-light images. Finally, we conducted 22 quantitative and qualitative experiments to show that the proposed CIDNet outperforms the state-of-the-art methods on 11 datasets. The code will be available at https://github.com/Fediory/HVI-CIDNet.

arxiv情報

著者 Yixu Feng,Cheng Zhang,Pei Wang,Peng Wu,Qingsen Yan,Yanning Zhang
発行日 2024-02-08 16:47:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク