ALEN: An Adaptive Dual-Approach for Enhancing Uniform and Non-Uniform Low-Light Images

要約

低照度画像の強調は、最適ではない照明条件下で撮影された画像の視認性と品質を向上させるために不可欠です。
従来の方法では、局所的な照明の変化を適切に捉えて、テクスチャと色の両方の詳細を向上させることができないことがよくあります。
最近の深層学習ベースのアプローチは効果的ではありますが、依然として多様なデータセットにわたる一般化に苦労しており、ノイズの増幅や不自然な色の飽和につながります。
これらの課題に対処するために、Adaptive Light Enhancement Network (ALEN) が導入されました。これは、分類メカニズムを利用して、ローカルまたはグローバルのどちらの照明強化が必要かを判断する新しい方法です。
ALEN は、照度分類のために Swin Light-Classification Transformer (SLCformer) を統合し、それぞれ正確な照度および色の推定のためにシングル チャネル ネットワーク (SCNet) とマルチチャネル ネットワーク (MCNet) によって補完されます。
公開されているデータセットを使った広範な実験により、ALEN の堅牢な一般化機能が実証され、定量的指標と定性的評価の両方で最先端の手法を上回っています。
さらに、ALEN は画質を向上させるだけでなく、セマンティック セグメンテーションなどの高レベルのビジョン タスクのパフォーマンスも向上させ、その幅広い適用性と潜在的な影響を示しています。
このメソッドのコードとデータセットは、https://github.com/xingyumex/ALEN}{https://github.com/xingyumex/ALEN で入手できます。

要約(オリジナル)

Low-light image enhancement is vital for improving the visibility and quality of images captured under suboptimal lighting conditions. Traditional methods often fail to adequately capture local lighting variations and enhance both textural and chromatic details. Recent deep learning-based approaches, while effective, still struggle with generalization across diverse datasets, leading to noise amplification and unnatural color saturation. To address these challenges, the Adaptive Light Enhancement Network (ALEN) is introduced, a novel method that utilizes a classification mechanism to determine whether local or global illumination enhancement is required. ALEN integrates the Swin Light-Classification Transformer (SLCformer) for illuminance categorization, complemented by the Single-Channel Network (SCNet) and Multi-Channel Network (MCNet) for precise illumination and color estimation, respectively. Extensive experiments on publicly available datasets demonstrate ALEN’s robust generalization capabilities, outperforming state-of-the-art methods in both quantitative metrics and qualitative assessments. Furthermore, ALEN not only enhances image quality but also improves the performance of high-level vision tasks such as semantic segmentation, showcasing its broader applicability and potential impact. The code for this method and the datasets are available at https://github.com/xingyumex/ALEN}{https://github.com/xingyumex/ALEN

arxiv情報

著者 Ezequiel Perez-Zarate,Oscar Ramos-Soto,Chunxiao Liu,Diego Oliva,Marco Perez-Cisneros
発行日 2024-12-09 18:04:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク