要約
高ダイナミックレンジ(HDR)シーン撮影に対するますます増え続ける需要として、マルチエクスポジュア画像融合(MEF)テクノロジーが存在しています。
近年、詳細強化に基づいたマルチスケール曝露融合アプローチが、ハイライトとシャドウの詳細の改善の道を導いています。
ただし、そのような方法のほとんどは、モバイルデバイスに展開するには計算上高すぎます。
このペーパーでは、細かいシャドウ/ハイライトの詳細を保証するだけでなく、詳細に覆われた方法よりも複雑さが低い知覚マルチエクスポジュア融合法を紹介します。
ディテールエンハンスメントコンポーネントを使用する代わりに、3つの古典的な暴露尺度の潜在的な欠陥を分析し、そのうち2つを改善します。
YCBCRカラースペースで設計されたAWEは、さまざまな露出画像の違いを考慮します。
3-Dグラジエントが採用されており、詳細を抽出します。
静的シーンに適した大規模なマルチエクスポスベンチマークデータセットを構築します。
構築されたデータセットでの実験は、提案された方法が視覚的およびMEF-SIM価値の観点から既存の8つの最先端のアプローチを超えることを示しています。
さらに、私たちのアプローチは、現在の画像強化技術のより良い改善を達成することができ、明るい光で細かい詳細を確保します。
要約(オリジナル)
As an ever-increasing demand for high dynamic range (HDR) scene shooting, multi-exposure image fusion (MEF) technology has abounded. In recent years, multi-scale exposure fusion approaches based on detail-enhancement have led the way for improvement in highlight and shadow details. Most of such methods, however, are too computationally expensive to be deployed on mobile devices. This paper presents a perceptual multi-exposure fusion method that not just ensures fine shadow/highlight details but with lower complexity than detailenhanced methods. We analyze the potential defects of three classical exposure measures in lieu of using detail-enhancement component and improve two of them, namely adaptive Wellexposedness (AWE) and the gradient of color images (3-D gradient). AWE designed in YCbCr color space considers the difference between varying exposure images. 3-D gradient is employed to extract fine details. We build a large-scale multiexposure benchmark dataset suitable for static scenes, which contains 167 image sequences all told. Experiments on the constructed dataset demonstrate that the proposed method exceeds existing eight state-of-the-art approaches in terms of visually and MEF-SSIM value. Moreover, our approach can achieve a better improvement for current image enhancement techniques, ensuring fine detail in bright light.
arxiv情報
著者 | Xiaoning Liu |
発行日 | 2025-03-05 14:43:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google