Multibranch Generative Models for Multichannel Imaging with an Application to PET/CT Synergistic Reconstruction

要約

本論文では、マルチブランチ生成モデルを用いて、医用画像の相乗的再構成を学習する新しいアプローチを紹介する。変分オートエンコーダ(VAE)を活用することで、我々のモデルは画像のペアから同時に学習し、効果的なノイズ除去と再構成を可能にする。相乗的な画像再構成は、画像とモデル間の距離を評価する正則化に学習済みモデルを組み込むことで達成される。我々は、MNIST(Modified National Institute of Standards and Technology)とPET(Positron Emission Tomography)/CT(Computed Tomography)データセットの両方で我々のアプローチの有効性を実証し、低線量イメージングにおける画質の向上を示す。パッチ分解やモデルの限界などの課題にもかかわらず、我々の結果は、医用画像再構成を強化するための生成モデルの可能性を強調している。

要約(オリジナル)

This paper presents a novel approach for learned synergistic reconstruction of medical images using multibranch generative models. Leveraging variational autoencoders (VAEs), our model learns from pairs of images simultaneously, enabling effective denoising and reconstruction. Synergistic image reconstruction is achieved by incorporating the trained models in a regularizer that evaluates the distance between the images and the model. We demonstrate the efficacy of our approach on both Modified National Institute of Standards and Technology (MNIST) and positron emission tomography (PET)/computed tomography (CT) datasets, showcasing improved image quality for low-dose imaging. Despite challenges such as patch decomposition and model limitations, our results underscore the potential of generative models for enhancing medical imaging reconstruction.

arxiv情報

著者 Noel Jeffrey Pinton,Alexandre Bousse,Catherine Cheze-Le-Rest,Dimitris Visvikis
発行日 2025-02-03 11:40:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, eess.IV, physics.med-ph パーマリンク