LYT-NET: Lightweight YUV Transformer-based Network for Low-light Image Enhancement

要約

このレターでは、低照度画像強調 (LLIE) 用の新しい軽量トランスベース モデルである LYT-Net を紹介します。
LYT-Net は、複数のレイヤーと取り外し可能なブロックで構成されており、これには当社の新しいブロックである Channel-Wise Denoiser (CWD) および Multi-Stage Squeeze & Excite Fusion (MSEF) と、従来の Transformer ブロックである Multi-Headed Self-tention が含まれます。
(MHSA)。
私たちの方法では、デュアルパス アプローチを採用し、クロミナンス チャネル U および V とルミナンス チャネル Y を別個のエンティティとして扱い、モデルが照明調整と破損修復をより適切に処理できるようにします。
確立された LLIE データセットに対する私たちの包括的な評価は、複雑さが低いにもかかわらず、私たちのモデルが最近の LLIE 手法よりも優れていることを示しています。
ソース コードと事前トレーニングされたモデルは https://github.com/albrateanu/LYT-Net で入手できます。

要約(オリジナル)

This letter introduces LYT-Net, a novel lightweight transformer-based model for low-light image enhancement (LLIE). LYT-Net consists of several layers and detachable blocks, including our novel blocks–Channel-Wise Denoiser (CWD) and Multi-Stage Squeeze & Excite Fusion (MSEF)–along with the traditional Transformer block, Multi-Headed Self-Attention (MHSA). In our method we adopt a dual-path approach, treating chrominance channels U and V and luminance channel Y as separate entities to help the model better handle illumination adjustment and corruption restoration. Our comprehensive evaluation on established LLIE datasets demonstrates that, despite its low complexity, our model outperforms recent LLIE methods. The source code and pre-trained models are available at https://github.com/albrateanu/LYT-Net

arxiv情報

著者 A. Brateanu,R. Balmez,A. Avram,C. Orhei,C. Ancuti
発行日 2024-09-17 16:24:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク