S3PET: Semi-supervised Standard-dose PET Image Reconstruction via Dose-aware Token Swap

要約

放射線トレーサーの線量を低減しながら高品質の陽電子放射断層撮影法 (PET) 画像を取得するために、低線量 PET (LPET) から標準線量 PET (SPET) 画像を再構成することに多くの努力が払われてきました。
しかし、現在の完全に監視されたアプローチの成功は、臨床では利用できないことが多い、豊富な LPET および SPET 画像のペアに依存しています。
さらに、これらの方法では、再構成中に線量不変の内容と線量レベルに関連した線量固有の詳細が混合されることが多く、その結果、画像が歪んでしまいます。
これらの問題を軽減するために、この論文では、豊富な非ペアおよび限定されたペアの SPET および LPET 画像のトレーニングに対応する 2 段階の半教師あり SPET 再構成フレームワーク、つまり S3PET を提案します。
当社の S3PET には、ペアになっていない画像から表現を抽出する教師なし事前トレーニング ステージ (ステージ I) と、LPET から SPET への線量固有の知識を転送することで LPET から SPET への再構成を実現する教師あり線量認識再構成ステージ (ステージ II) が含まれます。
ペアの画像。
具体的には、ステージ I では、ペアになっていない SPET および LPET 画像を包括的に理解するために、2 つの独立した線量固有マスク オートエンコーダー (DsMAE) が採用されています。
次に、ステージ II では、ペア画像を使用して、事前トレーニングされた DsMAE がさらに微調整されます。
内容と詳細の両方における歪みを防ぐために、我々は 2 つの精巧なモジュールを導入します。すなわち、LPET と SPET のそれぞれの線量固有の知識と線量不変の知識を解きほぐす線量知識分離モジュールと、線量固有の知識を伝達するための線量固有の知識学習モジュールです。
SPET から LPET に線量固有の情報を変換し、LPET 画像から高品質の SPET 再構成を実現します。
2 つのデータセットの実験により、当社の S3PET が定量的および定性的に最先端のパフォーマンスを達成していることが実証されました。

要約(オリジナル)

To acquire high-quality positron emission tomography (PET) images while reducing the radiation tracer dose, numerous efforts have been devoted to reconstructing standard-dose PET (SPET) images from low-dose PET (LPET). However, the success of current fully-supervised approaches relies on abundant paired LPET and SPET images, which are often unavailable in clinic. Moreover, these methods often mix the dose-invariant content with dose level-related dose-specific details during reconstruction, resulting in distorted images. To alleviate these problems, in this paper, we propose a two-stage Semi-Supervised SPET reconstruction framework, namely S3PET, to accommodate the training of abundant unpaired and limited paired SPET and LPET images. Our S3PET involves an un-supervised pre-training stage (Stage I) to extract representations from unpaired images, and a supervised dose-aware reconstruction stage (Stage II) to achieve LPET-to-SPET reconstruction by transferring the dose-specific knowledge between paired images. Specifically, in stage I, two independent dose-specific masked autoencoders (DsMAEs) are adopted to comprehensively understand the unpaired SPET and LPET images. Then, in Stage II, the pre-trained DsMAEs are further finetuned using paired images. To prevent distortions in both content and details, we introduce two elaborate modules, i.e., a dose knowledge decouple module to disentangle the respective dose-specific and dose-invariant knowledge of LPET and SPET, and a dose-specific knowledge learning module to transfer the dose-specific information from SPET to LPET, thereby achieving high-quality SPET reconstruction from LPET images. Experiments on two datasets demonstrate that our S3PET achieves state-of-the-art performance quantitatively and qualitatively.

arxiv情報

著者 Jiaqi Cui,Pinxian Zeng,Yuanyuan Xu,Xi Wu,Jiliu Zhou,Yan Wang
発行日 2024-07-30 14:56:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク