Large Kernel Distillation Network for Efficient Single Image Super-Resolution

要約

効率的かつ軽量な単一画像超解像度 (SISR) は、近年目覚ましいパフォーマンスを達成しています。
効果的なアプローチの 1 つは、大規模なカーネル設計を使用することです。これは、計算要件を削減しながら SISR モデルのパフォーマンスを向上させることが示されています。
しかし、現在の最先端 (SOTA) モデルは依然として高い計算コストなどの問題に直面しています。
これらの問題に対処するために、この文書ではラージ カーネル蒸留ネットワーク (LKDN) を提案します。
私たちのアプローチはモデル構造を簡素化し、より効率的なアテンション モジュールを導入して、計算コストを削減しながらパフォーマンスも向上させます。
具体的には、再パラメータ化手法を採用して、追加のコストを追加することなくモデルのパフォーマンスを向上させます。
また、他のタスクから SISR に新しいオプティマイザーを導入し、トレーニングの速度とパフォーマンスを向上させます。
私たちの実験結果は、LKDN が既存の軽量 SR 手法を上回り、SOTA パフォーマンスを達成することを示しています。

要約(オリジナル)

Efficient and lightweight single-image super-resolution (SISR) has achieved remarkable performance in recent years. One effective approach is the use of large kernel designs, which have been shown to improve the performance of SISR models while reducing their computational requirements. However, current state-of-the-art (SOTA) models still face problems such as high computational costs. To address these issues, we propose the Large Kernel Distillation Network (LKDN) in this paper. Our approach simplifies the model structure and introduces more efficient attention modules to reduce computational costs while also improving performance. Specifically, we employ the reparameterization technique to enhance model performance without adding extra cost. We also introduce a new optimizer from other tasks to SISR, which improves training speed and performance. Our experimental results demonstrate that LKDN outperforms existing lightweight SR methods and achieves SOTA performance.

arxiv情報

著者 Chengxing Xie,Xiaoming Zhang,Linze Li,Haiteng Meng,Tianlin Zhang,Tianrui Li,Xiaole Zhao
発行日 2024-07-19 14:21:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク