GM-MoE: Low-Light Enhancement with Gated-Mechanism Mixture-of-Experts

要約

Low-light Enhancementには、自律運転、3D再構成、リモートセンシング、監視などに幅広い用途があり、情報の使用率を大幅に改善できます。
ただし、ほとんどの既存の方法には一般化がなく、画像回復などの特定のタスクに限定されています。
これらの問題に対処するために、\ textbf {gated-mechanism of-experts(gm-moe)}}を提案します。
GM-MOEは、動的なゲートウェイトコンディショニングネットワークと3つのサブエクスパーネットワークで構成されており、それぞれが明確な拡張タスクに特化しています。
異なるデータドメインのサブ専門ネットワークの重みを動的に調整する自己設計のゲートメカニズムを組み合わせます。
さらに、マルチスケール機能をキャプチャすることにより、サブ専門ネットワーク内にローカルおよびグローバル機能の融合を統合して画質を向上させます。
実験結果は、GM-MoEが25の比較アプローチに対して優れた一般化を達成し、それぞれ5つのベンチマークでPSNRで最先端のパフォーマンスに到達し、4つのベンチマークでそれぞれSSIMに達することを示しています。

要約(オリジナル)

Low-light enhancement has wide applications in autonomous driving, 3D reconstruction, remote sensing, surveillance, and so on, which can significantly improve information utilization. However, most existing methods lack generalization and are limited to specific tasks such as image recovery. To address these issues, we propose \textbf{Gated-Mechanism Mixture-of-Experts (GM-MoE)}, the first framework to introduce a mixture-of-experts network for low-light image enhancement. GM-MoE comprises a dynamic gated weight conditioning network and three sub-expert networks, each specializing in a distinct enhancement task. Combining a self-designed gated mechanism that dynamically adjusts the weights of the sub-expert networks for different data domains. Additionally, we integrate local and global feature fusion within sub-expert networks to enhance image quality by capturing multi-scale features. Experimental results demonstrate that the GM-MoE achieves superior generalization with respect to 25 compared approaches, reaching state-of-the-art performance on PSNR on 5 benchmarks and SSIM on 4 benchmarks, respectively.

arxiv情報

著者 Minwen Liao,Hao Bo Dong,Xinyi Wang,Ziyang Yan,Yihua Shao
発行日 2025-03-10 15:05:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク