Zero-Reference Low-Light Enhancement via Physical Quadruple Priors

要約

照明を理解し、監視の必要性を減らすことは、低照度の強調において大きな課題となります。
現在のアプローチは、トレーニング中のデータ使用とイルミネーション固有のハイパーパラメーターに非常に敏感であり、目に見えないシナリオを処理する能力が制限されています。
この論文では、通常光画像のみでトレーニング可能な新しいゼロリファレンス低光量強調フレームワークを提案します。
これを達成するために、物理的な光伝達の理論に触発された照明不変事前分布を考案します。
この事前分布は、通常の画像と低照度の画像の間の橋渡しとして機能します。
次に、低照度データを使用せずにトレーニングされた事前画像フレームワークを開発します。
テスト中、このフレームワークは、画像に戻る前の照明不変条件を復元し、自動的に低照度の強調を実現します。
このフレームワーク内で、モデル機能のために事前トレーニングされた生成拡散モデルを活用し、細部の歪みを処理するバイパス デコーダーを導入するとともに、実用性を考慮した軽量バージョンを提供します。
広範な実験により、さまざまなシナリオにおけるフレームワークの優位性、および優れた解釈可能性、堅牢性、効率性が実証されています。
コードはプロジェクトのホームページから入手できます: http://daooshee.github.io/QuadPrior-Website/

要約(オリジナル)

Understanding illumination and reducing the need for supervision pose a significant challenge in low-light enhancement. Current approaches are highly sensitive to data usage during training and illumination-specific hyper-parameters, limiting their ability to handle unseen scenarios. In this paper, we propose a new zero-reference low-light enhancement framework trainable solely with normal light images. To accomplish this, we devise an illumination-invariant prior inspired by the theory of physical light transfer. This prior serves as the bridge between normal and low-light images. Then, we develop a prior-to-image framework trained without low-light data. During testing, this framework is able to restore our illumination-invariant prior back to images, automatically achieving low-light enhancement. Within this framework, we leverage a pretrained generative diffusion model for model ability, introduce a bypass decoder to handle detail distortion, as well as offer a lightweight version for practicality. Extensive experiments demonstrate our framework’s superiority in various scenarios as well as good interpretability, robustness, and efficiency. Code is available on our project homepage: http://daooshee.github.io/QuadPrior-Website/

arxiv情報

著者 Wenjing Wang,Huan Yang,Jianlong Fu,Jiaying Liu
発行日 2024-03-19 17:36:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク