Cyclic 2.5D Perceptual Loss for Cross-Modal 3D Image Synthesis: T1 MRI to Tau-PET

要約

アルツハイマー病 (AD) は認知症の最も一般的な形態であり、認知機能の低下とタウタンパク質などのバイオマーカーを特徴とします。
タウ陽電子放射断層撮影法(タウ-PET)は、脳内のタウタンパク質凝集体を選択的に結合、検出、視覚化する放射性トレーサーを採用しており、ADの早期診断には価値がありますが、コストが高く、入手可能性が限られているため、利用しにくいものです。
侵略的な性質。
ニューラル ネットワークを使用した画像合成により、よりアクセスしやすい T1 強調磁気共鳴画像法 (MRI) 画像からタウ PET 画像を生成できます。
高品質の画像合成を保証するために、平均二乗誤差および構造類似性指数測定 (SSIM) 損失と組み合わせた周期的な 2.5D 知覚損失を提案します。
周期的な 2.5D 知覚損失は、指定されたエポック数の軸方向 2D 平均知覚損失を順番に計算し、続いて同じエポック数のコロナル面とサジタル面を計算します。
このシーケンスは周期的に実行され、サイクルが繰り返されるにつれて間隔が短くなります。
ADNI データベースからの 516 対の T1w MRI とタウ-PET 3D 画像を使用して、T1w MRI 画像からタウ-PET 画像の教師あり合成を実行します。
収集したデータについては、各メーカーのタウPET画像の強度標準化などの前処理を行います。
生成 3D U-Net とそのバリアントに適用された提案された損失は、SSIM およびピーク信号対雑音比 (PSNR) における 2.5D および 3D の知覚損失を上回りました。
さらに、CycleGAN や Pix2Pix などの GAN ベースの画像合成モデルの元の損失に周期的な 2.5D 知覚損失を含めることで、SSIM と PSNR が少なくとも 2% と 3% 改善されます。
さらに、メーカーごとの PET 標準化は、min-max PET 正規化よりもモデルが高品質の画像を合成するのに役立ちます。

要約(オリジナル)

Alzheimer’s Disease (AD) is the most common form of dementia, characterised by cognitive decline and biomarkers such as tau-proteins. Tau-positron emission tomography (tau-PET), which employs a radiotracer to selectively bind, detect, and visualise tau protein aggregates within the brain, is valuable for early AD diagnosis but is less accessible due to high costs, limited availability, and its invasive nature. Image synthesis with neural networks enables the generation of tau-PET images from more accessible T1-weighted magnetic resonance imaging (MRI) images. To ensure high-quality image synthesis, we propose a cyclic 2.5D perceptual loss combined with mean squared error and structural similarity index measure (SSIM) losses. The cyclic 2.5D perceptual loss sequentially calculates the axial 2D average perceptual loss for a specified number of epochs, followed by the coronal and sagittal planes for the same number of epochs. This sequence is cyclically performed, with intervals reducing as the cycles repeat. We conduct supervised synthesis of tau-PET images from T1w MRI images using 516 paired T1w MRI and tau-PET 3D images from the ADNI database. For the collected data, we perform preprocessing, including intensity standardisation for tau-PET images from each manufacturer. The proposed loss, applied to generative 3D U-Net and its variants, outperformed those with 2.5D and 3D perceptual losses in SSIM and peak signal-to-noise ratio (PSNR). In addition, including the cyclic 2.5D perceptual loss to the original losses of GAN-based image synthesis models such as CycleGAN and Pix2Pix improves SSIM and PSNR by at least 2% and 3%. Furthermore, by-manufacturer PET standardisation helps the models in synthesising high-quality images than min-max PET normalisation.

arxiv情報

著者 Symac Kim,Junho Moon,Haejun Chung,Ikbeom Jang
発行日 2024-06-18 13:59:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク