要約
Deep-Learning(DL)ベースの画像デコンボリューション(ID)は、従来の線形方法を上回り、顕著な回復パフォーマンスを示しています。
ただし、ポイントスプレッド関数(PSF)の分析プロパティに依存する従来のIDアプローチとは異なり、高回復パフォーマンスを実現します – 畳み込みマトリックスの特定のスペクトルプロパティや小さな条件付き数値など、DL技術には、DLのPSF適合性を評価するための定量化可能なメトリックがありません。
– 回復を支援。
デコンボリューションの品質を向上させることを目指して、ユニットのインパルスにマッピングすることにより、ニューラルネットワークを使用して任意のPSFの可逆性を学習するための非線形アプローチを使用するメトリックを提案します。
マッピングされたPSFとユニットインパルスの間の矛盾が低いことは、DLネットワークによる反転が成功する可能性が高いことを示しています。
私たちの調査結果は、このメトリックがDLの高い回復パフォーマンスと従来の方法と相関していることを明らかにしており、それによってデコンボリューションタスクの効果的な正規者として機能します。
このアプローチは、従来の条件数の評価よりも計算の複雑さを減らし、微分可能なプロセスです。
これらの有用な特性により、エンドツーエンド(E2E)最適化を通じて回折光学要素を設計し、反転性PSFを達成し、E2Eベースラインフレームワークを上回ることができます。
要約(オリジナル)
Deep-learning (DL)-based image deconvolution (ID) has exhibited remarkable recovery performance, surpassing traditional linear methods. However, unlike traditional ID approaches that rely on analytical properties of the point spread function (PSF) to achieve high recovery performance – such as specific spectrum properties or small conditional numbers in the convolution matrix – DL techniques lack quantifiable metrics for evaluating PSF suitability for DL-assisted recovery. Aiming to enhance deconvolution quality, we propose a metric that employs a non-linear approach to learn the invertibility of an arbitrary PSF using a neural network by mapping it to a unit impulse. A lower discrepancy between the mapped PSF and a unit impulse indicates a higher likelihood of successful inversion by a DL network. Our findings reveal that this metric correlates with high recovery performance in DL and traditional methods, thereby serving as an effective regularizer in deconvolution tasks. This approach reduces the computational complexity over conventional condition number assessments and is a differentiable process. These useful properties allow its application in designing diffractive optical elements through end-to-end (E2E) optimization, achieving invertible PSFs, and outperforming the E2E baseline framework.
arxiv情報
著者 | Romario Gualdrón-Hurtado,Roman Jacome,Sergio Urrea,Henry Arguello,Luis Gonzalez |
発行日 | 2025-01-27 15:56:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google