LYT-Net: Lightweight YUV Transformer-based Network for Low-Light Image Enhancement

要約

近年、深層学習ベースのソリューションが画像強化の分野で成功を収めていることが証明されています。
このペーパーでは、低照度画像強化のための新しいアプローチとして、LYT-Net (軽量 YUV トランスベース ネットワーク) を紹介します。
提案されたアーキテクチャは、従来の Retinex ベースのモデルとは異なり、YUV 色空間の輝度 (Y) とクロミナンス (U および V) の自然な分離を利用して、画像内の光と色の情報を解きほぐす複雑なタスクを簡素化します。
LYT-Net は、長距離の依存関係を捕捉できることで知られるトランスフォーマーの強みを利用することで、モデルの複雑さを軽減しながら、画像の包括的なコンテキストの理解を保証します。
新しいハイブリッド損失関数を採用することで、私たちが提案する方法は、対応する方法よりも大幅にコンパクトでありながら、低照度画像強調データセットで最先端の結果を達成します。
ソース コードと事前トレーニングされたモデルは https://github.com/albrateanu/LYT-Net で入手できます。

要約(オリジナル)

In recent years, deep learning-based solutions have proven successful in the domains of image enhancement. This paper introduces LYT-Net, or Lightweight YUV Transformer-based Network, as a novel approach for low-light image enhancement. The proposed architecture, distinct from conventional Retinex-based models, leverages the YUV color space’s natural separation of luminance (Y) and chrominance (U and V) to simplify the intricate task of disentangling light and color information in images. By utilizing the strengths of transformers, known for their capability to capture long-range dependencies, LYT-Net ensures a comprehensive contextual understanding of the image while maintaining reduced model complexity. By employing a novel hybrid loss function, our proposed method achieves state-of-the-art results on low-light image enhancement datasets, all while being considerably more compact than its counterparts. The source code and pre-trained models are available at https://github.com/albrateanu/LYT-Net

arxiv情報

著者 A. Brateanu,R. Balmez,A. Avram,C. Orhei
発行日 2024-01-30 12:40:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク