Image super-resolution via dynamic network

要約

畳み込みニューラル ネットワーク (CNN) は、画像の超解像度のための正確な情報を抽出するためにディープ ネットワーク アーキテクチャに依存しています。
しかし、これらの CNN から得られる情報では、複雑なシーンの予測された高画質画像を完全に表現することはできません。
本稿では、画像超解像のための動的ネットワーク (DSRNet) を紹介します。これには、残差強調ブロック、ワイド拡張ブロック、特徴改善ブロック、および構築ブロックが含まれます。
残差強調ブロックは、画像超解像度の階層的特徴を容易にする残差強調アーキテクチャで構成されています。
複雑なシーンに対する取得された超解像度モデルの堅牢性を強化するために、ワイド拡張ブロックは、より堅牢な情報を学習する動的アーキテクチャを実現し、取得された超解像度モデルのさまざまなシーンへの適用性を高めます。
広い拡張ブロック内のコンポーネントの干渉を防ぐために、リファインメント ブロックはスタック アーキテクチャを利用して、取得された特徴を正確に学習します。
また、長期的な依存関係の問題を防ぐために、残差学習操作がリファインメント ブロックに埋め込まれています。
最後に、構築ブロックは高品質の画像を再構築する役割を果たします。
設計された異種アーキテクチャは、より豊富な構造情報を容易にするだけでなく、モバイルデジタルデバイスに適した軽量化も可能にします。
実験結果は、画像の超解像度と複雑さのパフォーマンスと回復時間の点で、私たちの方法がより競争力があることを示しています。
DSRNet のコードは https://github.com/hellloxiaotian/DSRNet で入手できます。

要約(オリジナル)

Convolutional neural networks (CNNs) depend on deep network architectures to extract accurate information for image super-resolution. However, obtained information of these CNNs cannot completely express predicted high-quality images for complex scenes. In this paper, we present a dynamic network for image super-resolution (DSRNet), which contains a residual enhancement block, wide enhancement block, feature refinement block and construction block. The residual enhancement block is composed of a residual enhanced architecture to facilitate hierarchical features for image super-resolution. To enhance robustness of obtained super-resolution model for complex scenes, a wide enhancement block achieves a dynamic architecture to learn more robust information to enhance applicability of an obtained super-resolution model for varying scenes. To prevent interference of components in a wide enhancement block, a refinement block utilizes a stacked architecture to accurately learn obtained features. Also, a residual learning operation is embedded in the refinement block to prevent long-term dependency problem. Finally, a construction block is responsible for reconstructing high-quality images. Designed heterogeneous architecture can not only facilitate richer structural information, but also be lightweight, which is suitable for mobile digital devices. Experimental results shows that our method is more competitive in terms of performance and recovering time of image super-resolution and complexity. The code of DSRNet can be obtained at https://github.com/hellloxiaotian/DSRNet.

arxiv情報

著者 Chunwei Tian,Xuanyu Zhang,Qi Zhang,Mingming Yang,Zhaojie Ju
発行日 2023-10-16 13:56:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク