Multi-Branch Generative Models for Multichannel Imaging with an Application to PET/CT Synergistic Reconstruction

要約

この論文では、マルチブランチ生成モデルを使用した医用画像の学習された相乗的再構成のための新しいアプローチを紹介します。
変分オートエンコーダ (VAE) を活用することで、私たちのモデルは画像のペアから同時に学習し、効果的なノイズ除去と再構成を可能にします。
相乗的な画像再構成は、画像とモデルの間の距離を評価するレガライザーにトレーニングされたモデルを組み込むことによって実現されます。
私たちは、修正国立標準技術研究所 (MNIST) と陽電子放出断層撮影 (PET)/コンピュータ断層撮影 (CT) データセットの両方に対するアプローチの有効性を実証し、低線量イメージングの画質の向上を示します。
パッチ分解やモデルの制限などの課題にもかかわらず、私たちの結果は、医療画像再構成を強化するための生成モデルの可能性を強調しています。

要約(オリジナル)

This paper presents a novel approach for learned synergistic reconstruction of medical images using multi-branch generative models. Leveraging variational autoencoders (VAEs), our model learns from pairs of images simultaneously, enabling effective denoising and reconstruction. Synergistic image reconstruction is achieved by incorporating the trained models in a regularizer that evaluates the distance between the images and the model. We demonstrate the efficacy of our approach on both Modified National Institute of Standards and Technology (MNIST) and positron emission tomography (PET)/computed tomography (CT) datasets, showcasing improved image quality for low-dose imaging. Despite challenges such as patch decomposition and model limitations, our results underscore the potential of generative models for enhancing medical imaging reconstruction.

arxiv情報

著者 Noel Jeffrey Pinton,Alexandre Bousse,Catherine Cheze-Le-Rest,Dimitris Visvikis
発行日 2024-11-22 17:42:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV, physics.med-ph パーマリンク