Generative Image Priors for MRI Reconstruction Trained from Magnitude-Only Images

要約

目的:本研究では、マグニチュードのみの画像から一般的でロバストな生成画像プリオールを構築するワークフローを提示する。この事前分布は、画像品質を向上させるための再構成における正則化に使用することができる。方法ワークフローは、マグニチュードのみのMR画像からトレーニングデータセットを準備することから始まる。このデータセットを位相情報で補強し、複雑な画像の生成的事前分布を学習するために使用する。最後に、様々なアンダーサンプリング方式を用いた圧縮センシングパラレルイメージングの線形再構成と非線形再構成の両方を用いて、訓練された事前分布を評価する。結果実験の結果、複素画像で学習した事前分布は、大きさ画像のみで学習した事前分布よりも優れていることが示された。さらに、より大きなデータセットで訓練された事前分布は、より高い頑健性を示す。最後に、高アンダサンプリングの圧縮センシングパラレルイメージングにおいて、生成的事前分布がL1ウェーブレット正則化よりも優れていることを示す。結論これらの結果は、MRI再構成のための生成的事前分布の性能と信頼性を高めるために、位相情報を組み込み、大規模なデータセットを活用することの重要性を強調している。位相補強により、既存の画像データベースをトレーニングに利用することが可能になる。

要約(オリジナル)

Purpose: In this work, we present a workflow to construct generic and robust generative image priors from magnitude-only images. The priors can then be used for regularization in reconstruction to improve image quality. Methods: The workflow begins with the preparation of training datasets from magnitude-only MR images. This dataset is then augmented with phase information and used to train generative priors of complex images. Finally, trained priors are evaluated using both linear and nonlinear reconstruction for compressed sensing parallel imaging with various undersampling schemes. Results: The results of our experiments demonstrate that priors trained on complex images outperform priors trained only on magnitude images. Additionally, a prior trained on a larger dataset exhibits higher robustness. Finally, we show that the generative priors are superior to L1 -wavelet regularization for compressed sensing parallel imaging with high undersampling. Conclusion: These findings stress the importance of incorporating phase information and leveraging large datasets to raise the performance and reliability of the generative priors for MRI reconstruction. Phase augmentation makes it possible to use existing image databases for training.

arxiv情報

著者 Guanxiong Luo,Xiaoqing Wang,Mortiz Blumenthal,Martin Schilling,Erik Hans Ulrich Rauf,Raviteja Kotikalapudi,Niels Focke,Martin Uecker
発行日 2023-08-04 14:12:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, eess.IV パーマリンク