Hybrid Pixel-Unshuffled Network for Lightweight Image Super-Resolution

要約

畳み込みニューラル ネットワーク (CNN) は、画像の超解像 (SR) で大きな成功を収めました。
ただし、ほとんどのディープ CNN ベースの SR モデルは、高性能を得るために大規模な計算を必要とします。
マルチ解像度フュージョンのダウンサンプリング機能は、視覚認識のパフォーマンスを向上させる効率的かつ効果的な方法です。
それでも、低解像度の入力を高解像度に投影する必要がある SR タスクでは直観に反します。
この論文では、SRタスクに効率的かつ効果的なダウンサンプリングモジュールを導入することにより、新しいハイブリッドピクセルアンシャッフルネットワーク(HPUN)を提案します。
このネットワークには、ピクセル非シャッフル ダウンサンプリングと自己残差の深さごとに分離可能な畳み込みが含まれています。
具体的には、ピクセルアンシャッフル操作を利用して入力機能をダウンサンプリングし、グループ化された畳み込みを使用してチャネルを削減します。
さらに、入力機能を出力に追加することにより、深さ方向の畳み込みのパフォーマンスを向上させます。
ベンチマーク データセットの実験では、当社の HPUN が、より少ないパラメーターと計算コストで最先端の再構成パフォーマンスを達成し、それを上回ることが示されています。

要約(オリジナル)

Convolutional neural network (CNN) has achieved great success on image super-resolution (SR). However, most deep CNN-based SR models take massive computations to obtain high performance. Downsampling features for multi-resolution fusion is an efficient and effective way to improve the performance of visual recognition. Still, it is counter-intuitive in the SR task, which needs to project a low-resolution input to high-resolution. In this paper, we propose a novel Hybrid Pixel-Unshuffled Network (HPUN) by introducing an efficient and effective downsampling module into the SR task. The network contains pixel-unshuffled downsampling and Self-Residual Depthwise Separable Convolutions. Specifically, we utilize pixel-unshuffle operation to downsample the input features and use grouped convolution to reduce the channels. Besides, we enhance the depthwise convolution’s performance by adding the input feature to its output. Experiments on benchmark datasets show that our HPUN achieves and surpasses the state-of-the-art reconstruction performance with fewer parameters and computation costs.

arxiv情報

著者 Bin Sun,Yulun Zhang,Songyao Jiang,Yun Fu
発行日 2022-11-29 14:47:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク