A Unified HDR Imaging Method with Pixel and Patch Level

要約

タイトル:ピクセルおよびパッチレベルで統合されたHDRイメージング手法
要約:異なる露出のLow Dynamic Range(LDR)画像をHigh Dynamic Range(HDR)にマッピングすることは、物体の動きやカメラの揺れによるゴースト現象のため、動的なシーンでは非常に困難である。Deep Neural Networks(DNN)の成功により、ゴースト現象を緩和するためのいくつかのDNNベースの手法が提案されているが、動きや飽和が発生した場合には十分な結果を生成することができない。様々な場合で視覚的に魅力的なHDR画像を生成するために、参照画像と非参照画像の複雑な関係を学習するためのハイブリッドHDRデゴースティングネットワーク、HyHDRNetを提案する。HyHDRNetは、コンテンツアライメントサブネットワークとTransformerベースのフュージョンサブネットワークから構成されている。具体的には、ソースからのゴーストを効果的に回避するために、コンテンツアライメントサブネットワークは、パッチレベルで他の非参照画像から類似したコンテンツをパッチ集約およびゴーストアテンションを用いて統合し、ピクセルレベルで不必要な成分を抑制する。パッチレベルとピクセルレベル間の相互ガイダンスを実現するために、ゲーティングモジュールを利用して、ゴーストと飽和領域の両方で有用な情報を十分に交換する。さらに、高品質なHDR画像を得るために、Transformerベースのフュージョンサブネットワークは、異なる露光領域の情報を適応的にマージするためにResidual Deformable Transformer Block(RDTB)を利用する。提案手法を4つの一般的に使用される公開HDR画像デゴースティングデータセットで実験した。実験の結果、HyHDRNetは、定量的・定性的にも最先端の手法を上回り、統一的なテクスチャと色で魅力的なHDRビジュアライズを実現していることが示された。

要約(オリジナル)

Mapping Low Dynamic Range (LDR) images with different exposures to High Dynamic Range (HDR) remains nontrivial and challenging on dynamic scenes due to ghosting caused by object motion or camera jitting. With the success of Deep Neural Networks (DNNs), several DNNs-based methods have been proposed to alleviate ghosting, they cannot generate approving results when motion and saturation occur. To generate visually pleasing HDR images in various cases, we propose a hybrid HDR deghosting network, called HyHDRNet, to learn the complicated relationship between reference and non-reference images. The proposed HyHDRNet consists of a content alignment subnetwork and a Transformer-based fusion subnetwork. Specifically, to effectively avoid ghosting from the source, the content alignment subnetwork uses patch aggregation and ghost attention to integrate similar content from other non-reference images with patch level and suppress undesired components with pixel level. To achieve mutual guidance between patch-level and pixel-level, we leverage a gating module to sufficiently swap useful information both in ghosted and saturated regions. Furthermore, to obtain a high-quality HDR image, the Transformer-based fusion subnetwork uses a Residual Deformable Transformer Block (RDTB) to adaptively merge information for different exposed regions. We examined the proposed method on four widely used public HDR image deghosting datasets. Experiments demonstrate that HyHDRNet outperforms state-of-the-art methods both quantitatively and qualitatively, achieving appealing HDR visualization with unified textures and colors.

arxiv情報

著者 Qingsen Yan,Weiye Chen,Song Zhang,Yu Zhu,Jinqiu Sun,Yanning Zhang
発行日 2023-04-14 06:21:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク