要約
マルチフォーカス画像融合(MFIF)と超解像(SR)は、イメージングモデルの逆問題であり、MFIFとSRの目的は、ターゲットのオールインフォーカスで高解像度の2Dマッピングを取得することです。
さまざまなMFIFおよびSRメソッドが設計されていますが、
それらのほとんどすべてがMFIFとSRを別々に扱います。
この論文は、マルチフォーカス画像超解像融合(MFISRF)として物理的観点からMFIFとSRの問題を統合し、ディープイメージプライア(DIP)に基づくディープフュージョンプライア(DFP)という名前の新しい統合データセットなしの教師なしフレームワークを提案します。
)単一モデルでそのようなMFISRFに対処する。
実験により、提案されたDFPは、これらの最先端のMFIFとSRの方法の組み合わせにアプローチするか、それよりも優れていることが証明されています。
私たちの知る限り、私たちが提案する作業は、データセットを使用しない教師なし手法であり、マルチフォーカス融合と超解像タスクを初めて同時に実装します。
さらに、DFPは一般的なフレームワークであるため、そのネットワークとフォーカス測定の戦術を継続的に更新して、MFISRFのパフォーマンスをさらに向上させることができます。
DFPコードは、http://github.com/GuYuanjie/DeepFusionPriorで入手できるオープンソースです。
要約(オリジナル)
Multi-focus image fusion (MFIF) and super-resolution (SR) are the inverse problem of imaging model, purposes of MFIF and SR are obtaining all-in-focus and high-resolution 2D mapping of targets. Though various MFIF and SR methods have been designed; almost all the them deal with MFIF and SR separately. This paper unifies MFIF and SR problems in the physical perspective as the multi-focus image super resolution fusion (MFISRF), and we propose a novel unified dataset-free unsupervised framework named deep fusion prior (DFP) based-on deep image prior (DIP) to address such MFISRF with single model. Experiments have proved that our proposed DFP approaches or even outperforms those state-of-art MFIF and SR method combinations. To our best knowledge, our proposed work is a dataset-free unsupervised method to simultaneously implement the multi-focus fusion and super-resolution task for the first time. Additionally, DFP is a general framework, thus its networks and focus measurement tactics can be continuously updated to further improve the MFISRF performance. DFP codes are open source available at http://github.com/GuYuanjie/DeepFusionPrior.
arxiv情報
著者 | Yuanjie Gu,Zhibo Xiao,Hailun Wang,Cheng Liu,Shouyu Wang |
発行日 | 2022-06-30 11:49:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google