Cascaded 3D Diffusion Models for Whole-body 3D 18-F FDG PET/CT synthesis from Demographics

要約

人口統計学的変数から直接高忠実度の3D PET/CTボリュームを合成するために、カスケード3D拡散モデルフレームワークを提案し、腫瘍学的イメージング、仮想試験、およびAI駆動型のデータ増強における現実的なデジタル双子の必要性の高まりに対処します。
事前に定義された解剖学的および代謝テンプレートに依存する決定論的ファントムとは異なり、この方法は2段階の生成プロセスを採用しています。
初期スコアベースの拡散モデルは、人口統計学的変数だけからの低解像度PET/CTボリュームを合成し、グローバルな解剖学的構造と近似代謝活動を提供します。
これに続いて、空間分解能を改良する超解像度の残留拡散モデルが続きます。
私たちのフレームワークは、オートペットデータセットからの18-F FDG PET/CTスキャンでトレーニングされ、オーガンワイズボリュームと標準化された取り込み値(SUV)分布を使用して評価され、人口統計サブグループ間の合成データと実際のデータを比較しました。
組織ごとの比較は、合成画像と実際の画像の間の強い一致を示しました。
特に、代謝摂取値のほとんどの逸脱は、サブグループ分析のグラウンドトゥルースの3〜5%のままでした。
これらの発見は、カスケードされた3D拡散モデルの可能性を強調して、解剖学的および代謝的に正確なPET/CT画像を生成し、従来のファントムに堅牢な代替品を提供し、臨床および研究用途向けのスケーラブルな人口情報の合成イメージングを可能にします。

要約(オリジナル)

We propose a cascaded 3D diffusion model framework to synthesize high-fidelity 3D PET/CT volumes directly from demographic variables, addressing the growing need for realistic digital twins in oncologic imaging, virtual trials, and AI-driven data augmentation. Unlike deterministic phantoms, which rely on predefined anatomical and metabolic templates, our method employs a two-stage generative process. An initial score-based diffusion model synthesizes low-resolution PET/CT volumes from demographic variables alone, providing global anatomical structures and approximate metabolic activity. This is followed by a super-resolution residual diffusion model that refines spatial resolution. Our framework was trained on 18-F FDG PET/CT scans from the AutoPET dataset and evaluated using organ-wise volume and standardized uptake value (SUV) distributions, comparing synthetic and real data between demographic subgroups. The organ-wise comparison demonstrated strong concordance between synthetic and real images. In particular, most deviations in metabolic uptake values remained within 3-5% of the ground truth in subgroup analysis. These findings highlight the potential of cascaded 3D diffusion models to generate anatomically and metabolically accurate PET/CT images, offering a robust alternative to traditional phantoms and enabling scalable, population-informed synthetic imaging for clinical and research applications.

arxiv情報

著者 Siyeop Yoon,Sifan Song,Pengfei Jin,Matthew Tivnan,Yujin Oh,Sekeun Kim,Dufan Wu,Xiang Li,Quanzheng Li
発行日 2025-05-28 15:38:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.GR, eess.IV パーマリンク