Deep Idempotent Network for Efficient Single Image Blind Deblurring

要約

潜在的なシャープなイメージもブラー カーネルも不明であるため、単一イメージのブラインド ブレ除去は非常に適切ではありません。
かなりの進歩があったにもかかわらず、高性能のブレ除去とリアルタイム処理の間のトレードオフなど、ブラインドのブレ除去にはいくつかの大きな問題が残っています。
さらに、現在の単一画像ブラインドブレ除去ネットワークは、パフォーマンスをさらに改善または安定させることはできませんが、再ブレ除去を繰り返し適用すると、パフォーマンスが大幅に低下することがわかります。
これは、理想的なブレ除去プロセスのモデル化におけるこれらのネットワークの制限を意味します。
この作業では、上記の問題に取り組むために2つの貢献を行います。(1)べき等制約をブレ除去フレームワークに導入し、深いべき等ネットワークを提示して、安定した再ブレ除去で改善されたブラインド不均一ブレ除去パフォーマンスを達成します。
(2)軽量のエンコーダーデコーダーユニットと、プログレッシブ残差方式で画像のブレを除去できる再帰構造を備えた、シンプルで効率的なブレ除去ネットワークを提案します。
合成および現実的なデータセットに関する広範な実験により、提案されたフレームワークの優位性が証明されます。
驚くべきことに、私たちが提案するネットワークは、同等の高性能を達成しながら、最先端のネットワークよりも約 6.5 倍小さく、6.4 倍高速です。

要約(オリジナル)

Single image blind deblurring is highly ill-posed as neither the latent sharp image nor the blur kernel is known. Even though considerable progress has been made, several major difficulties remain for blind deblurring, including the trade-off between high-performance deblurring and real-time processing. Besides, we observe that current single image blind deblurring networks cannot further improve or stabilize the performance but significantly degrades the performance when re-deblurring is repeatedly applied. This implies the limitation of these networks in modeling an ideal deblurring process. In this work, we make two contributions to tackle the above difficulties: (1) We introduce the idempotent constraint into the deblurring framework and present a deep idempotent network to achieve improved blind non-uniform deblurring performance with stable re-deblurring. (2) We propose a simple yet efficient deblurring network with lightweight encoder-decoder units and a recurrent structure that can deblur images in a progressive residual fashion. Extensive experiments on synthetic and realistic datasets prove the superiority of our proposed framework. Remarkably, our proposed network is nearly 6.5X smaller and 6.4X faster than the state-of-the-art while achieving comparable high performance.

arxiv情報

著者 Yuxin Mao,Zhexiong Wan,Yuchao Dai,Xin Yu
発行日 2022-10-13 16:01:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク