GRAN: Ghost Residual Attention Network for Single Image Super Resolution

要約

最近では、より広い画像超解像性能を達成するために、より広くより深いネットワークを設計する多くの研究が行われています。
優れた性能にもかかわらず、依然として高い計算リソースに悩まされており、組み込みデバイスに直接適用することはできません。
計算リソースを削減し、パフォーマンスを維持するために、効率的な超解像のための新しいゴースト残留注意ネットワーク (GRAN) を提案します。
このホワイト ペーパーでは、Ghost Residual Attention Block (GRAB) グループを導入して、標準的な畳み込み演算の欠点、つまり中間機能の冗長性を克服します。
GRAB は、Ghost モジュールと Channel and Spatial Attention Module (CSAM) で構成され、冗長機能の生成を軽減します。
具体的には、Ghost モジュールは、線形演算を使用して標準の畳み込みを置き換えることにより、固有の機能の根底にある情報を明らかにすることができます。
ゴースト モジュールによって冗長な機能を削減することで、このモデルはネットワーク内のメモリとコンピューティング リソースの要件を減らします。
CSAM は、画像の詳細を復元するために重要な、特徴抽出の場所と内容に、より包括的な注意を払います。
ベンチマーク データセットで実施された実験は、質的および量的の両方で、この方法の優れたパフォーマンスを示しています。
ベースライン モデルと比較して、より少ない計算リソースでより高いパフォーマンスを達成し、そのパラメーターと FLOP は 10 倍以上減少しました。

要約(オリジナル)

Recently, many works have designed wider and deeper networks to achieve higher image super-resolution performance. Despite their outstanding performance, they still suffer from high computational resources, preventing them from directly applying to embedded devices. To reduce the computation resources and maintain performance, we propose a novel Ghost Residual Attention Network (GRAN) for efficient super-resolution. This paper introduces Ghost Residual Attention Block (GRAB) groups to overcome the drawbacks of the standard convolutional operation, i.e., redundancy of the intermediate feature. GRAB consists of the Ghost Module and Channel and Spatial Attention Module (CSAM) to alleviate the generation of redundant features. Specifically, Ghost Module can reveal information underlying intrinsic features by employing linear operations to replace the standard convolutions. Reducing redundant features by the Ghost Module, our model decreases memory and computing resource requirements in the network. The CSAM pays more comprehensive attention to where and what the feature extraction is, which is critical to recovering the image details. Experiments conducted on the benchmark datasets demonstrate the superior performance of our method in both qualitative and quantitative. Compared to the baseline models, we achieve higher performance with lower computational resources, whose parameters and FLOPs have decreased by more than ten times.

arxiv情報

著者 Axi Niu,Pei Wang,Yu Zhu,Jinqiu Sun,Qingsen Yan,Yanning Zhang
発行日 2023-02-28 13:26:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク