Learning Regularized Multi-Scale Feature Flow for High Dynamic Range Imaging

要約

複数露出画像の集合から動的なシーンのゴーストのないハイダイナミックレンジ(HDR)画像を再構成することは、特に大きなオブジェクトの動きやオクルージョンがある場合、既存の方法では目に見えるアーティファクトにつながる困難なタスクである。この問題に対処するため、我々は正則化損失によって導かれるマルチスケール特徴フローの学習を試みるディープネットワークを提案する。まず、マルチスケール特徴を抽出し、非参照画像から特徴の位置合わせを行う。アライメント後、残差チャンネルアテンションブロックを用いて、異なる画像からの特徴をマージする。定性的・定量的な比較により、我々のアプローチは最先端の性能を達成し、カラーアーチファクトや幾何学的歪みが大幅に低減された優れた結果をもたらすことが示された。

要約(オリジナル)

Reconstructing ghosting-free high dynamic range (HDR) images of dynamic scenes from a set of multi-exposure images is a challenging task, especially with large object motion and occlusions, leading to visible artifacts using existing methods. To address this problem, we propose a deep network that tries to learn multi-scale feature flow guided by the regularized loss. It first extracts multi-scale features and then aligns features from non-reference images. After alignment, we use residual channel attention blocks to merge the features from different images. Extensive qualitative and quantitative comparisons show that our approach achieves state-of-the-art performance and produces excellent results where color artifacts and geometric distortions are significantly reduced.

arxiv情報

著者 Qian Ye,Masanori Suganuma,Jun Xiao,Takayuki Okatani
発行日 2022-07-06 09:37:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク