DOLCE: A Model-Based Probabilistic Diffusion Framework for Limited-Angle CT Reconstruction

要約

Limited-Angle Computerd Tomography (LACT) は、セキュリティから医療まで、さまざまなアプリケーションで使用される非破壊評価技術です。
LACT の限られた角度範囲は、多くの場合、再構成された画像に重度のアーティファクトが発生する主な原因であり、困難な逆問題になります。
DOLCE は、条件付き拡散モデルを事前イメージとして使用する LACT の新しいディープ モデル ベースのフレームワークです。
拡散モデルは、画像デノイザーとして実装されているため、トレーニングが比較的簡単な最近の深層生成モデルのクラスです。
DOLCE は、変換された限定角度データを条件とする拡散モデルのサンプリング更新とデータ整合性の更新を統合することにより、大幅にアンダーサンプリングされたデータから高品質の画像を形成できます。
いくつかの挑戦的な実際の LACT データセットでの広範な実験を通じて、同じ事前トレーニング済みの DOLCE モデルが大幅に異なるタイプの画像で SOTA パフォーマンスを達成することを示しています。
さらに、標準の LACT 再構成法とは異なり、DOLCE は測定データと一致する複数のサンプルを生成することにより、再構成の不確実性の定量化を自然に可能にすることを示します。

要約(オリジナル)

Limited-Angle Computed Tomography (LACT) is a non-destructive evaluation technique used in a variety of applications ranging from security to medicine. The limited angle coverage in LACT is often a dominant source of severe artifacts in the reconstructed images, making it a challenging inverse problem. We present DOLCE, a new deep model-based framework for LACT that uses a conditional diffusion model as an image prior. Diffusion models are a recent class of deep generative models that are relatively easy to train due to their implementation as image denoisers. DOLCE can form high-quality images from severely under-sampled data by integrating data-consistency updates with the sampling updates of a diffusion model, which is conditioned on the transformed limited-angle data. We show through extensive experimentation on several challenging real LACT datasets that, the same pre-trained DOLCE model achieves the SOTA performance on drastically different types of images. Additionally, we show that, unlike standard LACT reconstruction methods, DOLCE naturally enables the quantification of the reconstruction uncertainty by generating multiple samples consistent with the measured data.

arxiv情報

著者 Jiaming Liu,Rushil Anirudh,Jayaraman J. Thiagarajan,Stewart He,K. Aditya Mohan,Ulugbek S. Kamilov,Hyojin Kim
発行日 2022-11-22 15:30:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク