InDuDoNet+: A Deep Unfolding Dual Domain Network for Metal Artifact Reduction in CT Images

要約

コンピューター断層撮影 (CT) イメージング プロセス中に、患者内の金属インプラントはしばしば有害なアーティファクトを引き起こし、再構成された CT 画像の視覚的品質を低下させ、その後の臨床診断に悪影響を及ぼします。
金属アーティファクト削減 (MAR) タスクでは、現在のディープ ラーニング ベースの方法が有望なパフォーマンスを達成しています。
ただし、それらのほとんどは、2 つの主な共通の制限を共有しています。
2) フレームワーク全体は、特定の MAR タスクの解釈可能性が弱い。
したがって、各ネットワークモジュールの役割を評価することは困難です。
これらの問題を軽減するために、この論文では、CT イメージング プロセスが細かく組み込まれた、InDuDoNet+ と呼ばれる新しいディープ アンフォールディング デュアル ドメイン ネットワークを構築します。
具体的には、空間領域とラドン領域の結合再構築モデルを導出し、それを解くための単純な演算子のみを使用した最適化アルゴリズムを提案します。
提案されたアルゴリズムに含まれる反復ステップを対応するネットワーク モジュールに展開することにより、明確な解釈で InDuDoNet+ を簡単に構築できます。
さらに、異なる組織間の CT 値を分析し、以前の観測を InDuDoNet+ の以前のネットワークにマージします。これにより、一般化のパフォーマンスが大幅に向上します。合成データと臨床データに関する包括的な実験は、提案された方法の優位性と、
現在の最先端 (SOTA) MAR メソッドを超える優れた一般化パフォーマンス。
.
コードは \url{https://github.com/hongwang01/InDuDoNet_plus} で入手できます。

要約(オリジナル)

During the computed tomography (CT) imaging process, metallic implants within patients often cause harmful artifacts, which adversely degrade the visual quality of reconstructed CT images and negatively affect the subsequent clinical diagnosis. For the metal artifact reduction (MAR) task, current deep learning based methods have achieved promising performance. However, most of them share two main common limitations: 1) the CT physical imaging geometry constraint is not comprehensively incorporated into deep network structures; 2) the entire framework has weak interpretability for the specific MAR task; hence, the role of each network module is difficult to be evaluated. To alleviate these issues, in the paper, we construct a novel deep unfolding dual domain network, termed InDuDoNet+, into which CT imaging process is finely embedded. Concretely, we derive a joint spatial and Radon domain reconstruction model and propose an optimization algorithm with only simple operators for solving it. By unfolding the iterative steps involved in the proposed algorithm into the corresponding network modules, we easily build the InDuDoNet+ with clear interpretability. Furthermore, we analyze the CT values among different tissues, and merge the prior observations into a prior network for our InDuDoNet+, which significantly improve its generalization performance.Comprehensive experiments on synthesized data and clinical data substantiate the superiority of the proposed methods as well as the superior generalization performance beyond the current state-of-the-art (SOTA) MAR methods. . Code is available at \url{https://github.com/hongwang01/InDuDoNet_plus}.

arxiv情報

著者 Hong Wang,Yuexiang Li,Haimiao Zhang,Deyu Meng,Yefeng Zheng
発行日 2022-12-26 12:38:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク