要約
既存の手法の多くは、非盲検デコンボリューション問題を最大事後評価の枠組みで定式化し、正則化項と潜在的な透明画像のデータ項を手動で設計することで対処している。しかし、これら2つの項を明示的に設計することは非常に困難であり、通常、複雑な最適化問題に発展し、解くことが困難である。本論文では、これらの項を暗黙的にモデル化する識別的収縮関数を学習することにより、効果的な非盲検デコンボリューションアプローチを提案する。深層畳み込みニューラルネットワーク(CNN)や放射状基底関数を用いて正則化項を単純に学習する多くの既存手法とは対照的に、我々はデータ項と正則化項の両方を定式化し、乗法の交互方向法に従ってデコンボリューションモデルをデータ関連と正則化関連の部分問題に分割する。Maxout関数の特性を探り、Maxout層を持つ深層CNNモデルを開発し、これら2つのサブ問題の解を直接近似する識別的な収縮関数を学習する。さらに、高速フーリエ変換に基づく画像復元は通常リンギングアーチファクトを引き起こし、共役勾配に基づくアプローチは時間がかかることを踏まえ、潜在的な透明画像を効果的かつ効率的に復元する共役勾配ネットワークを開発する。実験により、提案手法は効率と精度の点で最先端技術に対して良好な性能を示すことが示された。
要約(オリジナル)
Most existing methods usually formulate the non-blind deconvolution problem into a maximum-a-posteriori framework and address it by manually designing kinds of regularization terms and data terms of the latent clear images. However, explicitly designing these two terms is quite challenging and usually leads to complex optimization problems which are difficult to solve. In this paper, we propose an effective non-blind deconvolution approach by learning discriminative shrinkage functions to implicitly model these terms. In contrast to most existing methods that use deep convolutional neural networks (CNNs) or radial basis functions to simply learn the regularization term, we formulate both the data term and regularization term and split the deconvolution model into data-related and regularization-related sub-problems according to the alternating direction method of multipliers. We explore the properties of the Maxout function and develop a deep CNN model with a Maxout layer to learn discriminative shrinkage functions to directly approximate the solutions of these two sub-problems. Moreover, given the fast-Fourier-transform-based image restoration usually leads to ringing artifacts while conjugate-gradient-based approach is time-consuming, we develop the Conjugate Gradient Network to restore the latent clear images effectively and efficiently. Experimental results show that the proposed method performs favorably against the state-of-the-art ones in terms of efficiency and accuracy.
arxiv情報
| 著者 | Pin-Hung Kuo,Jinshan Pan,Shao-Yi Chien,Ming-Hsuan Yang |
| 発行日 | 2022-07-06 11:49:21+00:00 |
| arxivサイト | arxiv_id(pdf) |