CoreDiff: Contextual Error-Modulated Generalized Diffusion Model for Low-Dose CT Denoising and Generalization

要約

低線量のコンピュータ断層撮影 (CT) 画像には、光子枯渇や電子ノイズによるノイズやアーチファクトが発生します。
最近、いくつかの研究では、以前の深層学習ベースのノイズ除去モデルが遭遇した過度の滑らかさとトレーニングの不安定性に対処するために拡散モデルを使用しようと試みています。
ただし、拡散モデルには多数のサンプリング ステップが含まれるため、推論時間が長くなります。
ごく最近、常温拡散モデルは古典的な拡散モデルを一般化し、柔軟性が向上しました。
この論文は、コールド拡散にインスピレーションを得て、CoreDiff と呼ばれる、低線量 CT (LDCT) ノイズ除去のための新しいコンテキストエラー変調 gEneralized Diffusion モデルを紹介します。
まず、CoreDiff は LDCT 画像を利用してランダムなガウス ノイズを置き換え、新しい平均保存劣化演算子を採用して CT 劣化の物理的プロセスを模倣し、サンプリング プロセスの開始点として有益な LDCT 画像を使用することでサンプリング ステップを大幅に削減します。
第二に、サンプリングプロセスにおける不完全な復元演算子によって引き起こされる誤差蓄積問題を軽減するために、コンテキスト情報を利用してサンプリングプロセスの構造的歪みを抑制し、変調することができる新しいコンテキストエラー変調復元ネットワーク(CLEAR-Net)を提案します。
次のタイム ステップでの入力との整合性を高めるためのタイム ステップ埋め込み機能。
3 番目に、できるだけ少ないリソースで新しい目に見えない線量レベルに迅速に一般化するために、NDCT とペアになっていない単一の LDCT 画像のみを使用して、CoreDiff がより速く、より適切に一般化できるようにするワンショット学習フレームワークを考案します。
2 つのデータセットに関する広範な実験結果は、CoreDiff が臨床的に許容可能な推論時間で、ノイズ除去と汎化のパフォーマンスにおいて競合する手法を上回っていることを示しています。
ソース コードは https://github.com/qgao21/CoreDiff で入手できます。

要約(オリジナル)

Low-dose computed tomography (CT) images suffer from noise and artifacts due to photon starvation and electronic noise. Recently, some works have attempted to use diffusion models to address the over-smoothness and training instability encountered by previous deep-learning-based denoising models. However, diffusion models suffer from long inference times due to the large number of sampling steps involved. Very recently, cold diffusion model generalizes classical diffusion models and has greater flexibility. Inspired by the cold diffusion, this paper presents a novel COntextual eRror-modulated gEneralized Diffusion model for low-dose CT (LDCT) denoising, termed CoreDiff. First, CoreDiff utilizes LDCT images to displace the random Gaussian noise and employs a novel mean-preserving degradation operator to mimic the physical process of CT degradation, significantly reducing sampling steps thanks to the informative LDCT images as the starting point of the sampling process. Second, to alleviate the error accumulation problem caused by the imperfect restoration operator in the sampling process, we propose a novel ContextuaL Error-modulAted Restoration Network (CLEAR-Net), which can leverage contextual information to constrain the sampling process from structural distortion and modulate time step embedding features for better alignment with the input at the next time step. Third, to rapidly generalize to a new, unseen dose level with as few resources as possible, we devise a one-shot learning framework to make CoreDiff generalize faster and better using only a single LDCT image (un)paired with NDCT. Extensive experimental results on two datasets demonstrate that our CoreDiff outperforms competing methods in denoising and generalization performance, with a clinically acceptable inference time. Source code is made available at https://github.com/qgao21/CoreDiff.

arxiv情報

著者 Qi Gao,Zilong Li,Junping Zhang,Yi Zhang,Hongming Shan
発行日 2023-10-06 12:57:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV, physics.med-ph パーマリンク