Edge-enhanced Feature Distillation Network for Efficient Super-Resolution

要約

畳み込みニューラルネットワークの最近の大規模な開発に伴い、エッジデバイスへの実用的な展開のために多数の軽量CNNベースの画像超解像法が提案されています。
ただし、ほとんどの既存の方法は、ネットワークまたは損失の設計という1つの特定の側面に焦点を合わせているため、モデルサイズを最小化することが困難になります。
この問題に対処するために、ブロックの考案、アーキテクチャの検索、および損失の設計を完了して、より効率的なSR構造を取得します。
この論文では、制約されたリソースの下で高周波情報を保存するために、EFDNという名前のエッジ拡張機能蒸留ネットワークを提案しました。
詳細には、既存の再パラメータ化方法に基づいて、エッジが強化された畳み込みブロックを構築します。
一方、再パラメータ化されたパストレーニングを較正するために、エッジが強化された勾配損失を提案します。
実験結果は、エッジを強化した戦略がエッジを維持し、最終的な修復品質を大幅に改善することを示しています。
コードはhttps://github.com/icandle/EFDNで入手できます。

要約(オリジナル)

With the recently massive development in convolution neural networks, numerous lightweight CNN-based image super-resolution methods have been proposed for practical deployments on edge devices. However, most existing methods focus on one specific aspect: network or loss design, which leads to the difficulty of minimizing the model size. To address the issue, we conclude block devising, architecture searching, and loss design to obtain a more efficient SR structure. In this paper, we proposed an edge-enhanced feature distillation network, named EFDN, to preserve the high-frequency information under constrained resources. In detail, we build an edge-enhanced convolution block based on the existing reparameterization methods. Meanwhile, we propose edge-enhanced gradient loss to calibrate the reparameterized path training. Experimental results show that our edge-enhanced strategies preserve the edge and significantly improve the final restoration quality. Code is available at https://github.com/icandle/EFDN.

arxiv情報

著者 Yan Wang
発行日 2022-06-22 12:17:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク