An Educated Warm Start For Deep Image Prior-Based Micro CT Reconstruction

要約

Deep image prior (DIP) は、画像復元タスクのための効果的な教師なしアプローチとして最近導入された。DIPは復元すべき画像を深い畳み込みニューラルネットワークの出力として表し、その出力が破損した観察に一致するように、ネットワークのパラメータを学習する。その素晴らしい復元特性にもかかわらず、このアプローチは教師あり学習や従来の復元技術と比較すると低速である。(1)模擬データを用いて教師ありの事前学習を行う。(2)目標の再構成タスクに適応するように、ネットワークのパラメータを微調整する。我々は、画像再構成の文脈における事前学習の影響を明らかにするために、徹底的な実証分析を行う。その結果、生体標本の2次元および3次元マイクロコンピュータ断層撮影データから、事前学習によってその後の再構成タスクが大幅に高速化され、安定化されることが示された。コードとその他の実験資料は、https://educateddip.github.io/docs.educated_deep_image_prior/ で入手可能です。

要約(オリジナル)

Deep image prior (DIP) was recently introduced as an effective unsupervised approach for image restoration tasks. DIP represents the image to be recovered as the output of a deep convolutional neural network, and learns the network’s parameters such that the output matches the corrupted observation. Despite its impressive reconstructive properties, the approach is slow when compared to supervisedly learned, or traditional reconstruction techniques. To address the computational challenge, we bestow DIP with a two-stage learning paradigm: (i) perform a supervised pretraining of the network on a simulated dataset; (ii) fine-tune the network’s parameters to adapt to the target reconstruction task. We provide a thorough empirical analysis to shed insights into the impacts of pretraining in the context of image reconstruction. We showcase that pretraining considerably speeds up and stabilizes the subsequent reconstruction task from real-measured 2D and 3D micro computed tomography data of biological specimens. The code and additional experimental materials are available at https://educateddip.github.io/docs.educated_deep_image_prior/.

arxiv情報

著者 Riccardo Barbano,Johannes Leuschner,Maximilian Schmidt,Alexander Denker,Andreas Hauptmann,Peter Maaß,Bangti Jin
発行日 2022-06-09 12:11:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, eess.IV パーマリンク