要約
X 線コンピュータ断層撮影 (CT) は、臨床応用において最も重要な画像診断技術の 1 つです。
スパースビュー CT イメージングにより、投影ビューの数が減って放射線量が減り、放射線被ばくの潜在的なリスクが軽減されます。
既存のディープ ラーニング (DL) およびディープ アンフォールディング スパース ビュー CT 再構成手法のほとんどは次のとおりです。1) 投影データを完全には使用しません。
2) アーキテクチャ設計を常に数学理論に結びつけるわけではありません。
3)マルチスパースビュー再構成割り当てを柔軟に処理しない。
この論文は、数学的アイデアを使用し、スパースビュー断層撮影再構成に最適な DL イメージング アルゴリズムを設計することを目的としています。
我々は、単一のモデルを通じて異なるサンプリングビューを使用したマルチスパースビューCT再構成に大きな柔軟性を提供する、新しいデュアルドメインディープアンフォールディング統合フレームワークを提案します。
このフレームワークは、モデルベースの手法の理論上の利点と DL ベースの手法の優れた再構成パフォーマンスを組み合わせ、DL の期待される一般化可能性をもたらします。
我々は、展開投影ドメインを利用してフルスパースビュー投影誤差を精製する改良モジュールと、マルチスケールの幾何学的誤差補正を抽出してスパースビューCTを再構成する画像ドメイン補正モジュールを提案します。
これにより、投影情報の可能性を探求する新しい方法と、ネットワーク アーキテクチャの設計に関する新しい視点が得られます。
私たちが提案したフレームワークのすべてのパラメーターはエンドツーエンドで学習可能であり、私たちの方法はプラグアンドプレイの再構成に適用できる可能性があります。
広範な実験により、私たちのフレームワークが他の既存の最先端の方法よりも優れていることが実証されました。
ソース コードは https://github.com/fanxiaohong/MVMS-RCN で入手できます。
要約(オリジナル)
X-ray Computed Tomography (CT) is one of the most important diagnostic imaging techniques in clinical applications. Sparse-view CT imaging reduces the number of projection views to a lower radiation dose and alleviates the potential risk of radiation exposure. Most existing deep learning (DL) and deep unfolding sparse-view CT reconstruction methods: 1) do not fully use the projection data; 2) do not always link their architecture designs to a mathematical theory; 3) do not flexibly deal with multi-sparse-view reconstruction assignments. This paper aims to use mathematical ideas and design optimal DL imaging algorithms for sparse-view tomography reconstructions. We propose a novel dual-domain deep unfolding unified framework that offers a great deal of flexibility for multi-sparse-view CT reconstruction with different sampling views through a single model. This framework combines the theoretical advantages of model-based methods with the superior reconstruction performance of DL-based methods, resulting in the expected generalizability of DL. We propose a refinement module that utilizes unfolding projection domain to refine full-sparse-view projection errors, as well as an image domain correction module that distills multi-scale geometric error corrections to reconstruct sparse-view CT. This provides us with a new way to explore the potential of projection information and a new perspective on designing network architectures. All parameters of our proposed framework are learnable end to end, and our method possesses the potential to be applied to plug-and-play reconstruction. Extensive experiments demonstrate that our framework is superior to other existing state-of-the-art methods. Our source codes are available at https://github.com/fanxiaohong/MVMS-RCN.
arxiv情報
著者 | Xiaohong Fan,Ke Chen,Huaming Yi,Yin Yang,Jianping Zhang |
発行日 | 2024-11-21 15:12:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google