STPDnet: Spatial-temporal convolutional primal dual network for dynamic PET image reconstruction

要約

動的陽電子放出断層撮影 (dPET) 画像再構成は、個々のフレームで受信されるカウントが限られているため、非常に困難です。
この論文では、ダイナミック PET 画像再構成のための時空間畳み込みプライマル デュアル ネットワーク (STPDnet) を提案します。
空間相関と時間相関の両方が 3D 畳み込み演算子によってエンコードされます。
PET の物理的投影は、ネットワークの反復学習プロセスに組み込まれており、物理的な制約を提供し、解釈可能性を高めます。
実際のラットスキャンデータの実験では、提案された方法が時間領域と空間領域の両方で大幅なノイズ削減を達成し、最尤期待値最大化 (MLEM)、時空間カーネル法 (KEM-ST)、DeepPET、および学習プライマルよりも優れていることが示されています。
デュアル (LPD)。

要約(オリジナル)

Dynamic positron emission tomography (dPET) image reconstruction is extremely challenging due to the limited counts received in individual frame. In this paper, we propose a spatial-temporal convolutional primal dual network (STPDnet) for dynamic PET image reconstruction. Both spatial and temporal correlations are encoded by 3D convolution operators. The physical projection of PET is embedded in the iterative learning process of the network, which provides the physical constraints and enhances interpretability. The experiments of real rat scan data have shown that the proposed method can achieve substantial noise reduction in both temporal and spatial domains and outperform the maximum likelihood expectation maximization (MLEM), spatial-temporal kernel method (KEM-ST), DeepPET and Learned Primal Dual (LPD).

arxiv情報

著者 Rui Hu,Jianan Cui,Chengjin Yu,Yunmei Chen,Huafeng Liu
発行日 2023-03-08 15:43:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク