DPEC: Dual-Path Error Compensation Method for Enhanced Low-Light Image Clarity

要約

低照度の画像強調のタスクでは、深層学習ベースのアルゴリズムが従来の方法と比較して優位性と有効性を実証しています。
既存の深層学習アルゴリズムは主に Retinex 理論に基づいて提案されていますが、入力に存在するノイズと色の歪みを見落としており、最終結果で大幅なノイズの増幅と局所的な色の歪みが発生することがよくあります。
これに対処するために、私たちは、低光量条件での画質を向上させることを目的としたデュアルパス誤差補償法 (DPEC) を提案します。
DPEC は、ピクセルレベルの正確なエラー推定を実行して、微妙なピクセルの違いを正確に捕捉し、独立したノイズ除去を実行して、不要なノイズを効果的に除去します。
この方法では、局所的なテクスチャの詳細を維持し、ノイズの増幅を回避しながら、画像の明るさを復元します。
さらに、従来の CNN の長距離セマンティック情報の捕捉能力の限界を補うため、計算速度とリソース効率の両方を考慮して、VMamba アーキテクチャを DPEC のバックボーンに統合しました。
さらに、DPEC のトレーニングを制限するために HIS-Retinex 損失を導入し、画像の全体的な輝度分布が現実世界の条件により厳密に一致するようにしました。
包括的な定量的および定性的な実験結果は、当社のアルゴリズムが 6 つのベンチマーク テスト全体で最先端の手法を大幅に上回っていることを示しています。

要約(オリジナル)

For the task of low-light image enhancement, deep learning-based algorithms have demonstrated superiority and effectiveness compared to traditional methods. Existing deep learning algorithms are proposed mainly based on the Retinex theory but overlook the noise and color distortion present in the input, which frequently results in significant noise amplification and local color distortion in the final results. To address this, we propose a Dual-Path Error Compensation method (DPEC), which aims to improve image quality in low-light conditions. DPEC performs precise pixel-level error estimation, which accurately captures subtle pixels differences, and independent denoising, which effectively removes unnecessary noise. This method restores image brightness while preserving local texture details and avoiding noise amplification. Furthermore, to compensate for the traditional CNN’s limited ability to capture long-range semantic information and considering both computational speed and resource efficiency, we integrated the VMamba architecture into the backbone of DPEC. In addition, we introduced the HIS-Retinex loss to constrain the training of DPEC, ensuring that the overall brightness distribution of the images more closely aligns with real-world conditions. Comprehensive quantitative and qualitative experimental results demonstrate that our algorithm significantly outperforms state-of-the-art methods across six benchmark tests.

arxiv情報

著者 Shuang Wang,Qianwen Lu,Yihe Nie,Qingchuan Tao,Yanmei Yu
発行日 2024-10-22 13:04:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク