Real-World Image Super-Resolution by Exclusionary Dual-Learning

要約

実世界画像超解像は、実環境の入力から高品質な画像を得ることを目的とした実用的な画像復元問題であり、その多大な応用可能性に関して、近年大きな注目を集めている。ディープラーニングに基づく手法は、実世界画像超解像データセットにおいて有望な復元品質を達成しているが、L1-と知覚-最小化の関係を無視し、事前学習用に補助的に大規模データセットをおおよそ採用している。本論文では、破損画像内の画像の種類と、知覚ベースとユークリッドベースの評価プロトコルの特性について議論する。そして、知覚ベースとL1ベースの協調学習における特徴量の多様性に対応する手法として、除外型二重学習による実世界画像超解像法(RWSR-EDL)を提案する。さらに、複数データセット最適化における学習時間消費に対処するため、ノイズ誘導型データ収集戦略を開発した。RWSR-EDLは補助的なデータセットを組み込んだ場合、ノイズガイダンスデータ収集戦略を採用することにより、学習時間の増加を抑制し、有望な結果を得ることができる。RWSR-EDLは、4つの実環境画像超解像データセットにおいて、最先端の手法に勝る性能を達成することが、広範な実験により示されている。

要約(オリジナル)

Real-world image super-resolution is a practical image restoration problem that aims to obtain high-quality images from in-the-wild input, has recently received considerable attention with regard to its tremendous application potentials. Although deep learning-based methods have achieved promising restoration quality on real-world image super-resolution datasets, they ignore the relationship between L1- and perceptual- minimization and roughly adopt auxiliary large-scale datasets for pre-training. In this paper, we discuss the image types within a corrupted image and the property of perceptual- and Euclidean- based evaluation protocols. Then we propose a method, Real-World image Super-Resolution by Exclusionary Dual-Learning (RWSR-EDL) to address the feature diversity in perceptual- and L1- based cooperative learning. Moreover, a noise-guidance data collection strategy is developed to address the training time consumption in multiple datasets optimization. When an auxiliary dataset is incorporated, RWSR-EDL achieves promising results and repulses any training time increment by adopting the noise-guidance data collection strategy. Extensive experiments show that RWSR-EDL achieves competitive performance over state-of-the-art methods on four in-the-wild image super-resolution datasets.

arxiv情報

著者 Hao Li,Jinghui Qin,Zhijing Yang,Pengxu Wei,Jinshan Pan,Liang Lin,Yukai Shi
発行日 2022-06-06 13:28:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク