Dual-Domain Multi-Contrast MRI Reconstruction with Synthesis-based Fusion Network

要約

目的:マルチコントラストMRIのための効率的なデュアルドメイン再構成フレームワークを開発する。理論と方法:ディープラーニングに基づく我々の提案するフレームワークは、より短時間で取得できる完全サンプリングされた参照コントラストを用いて、アンダーサンプリングされたターゲットコントラストの最適化を容易にする。本手法は3つの重要なステップから構成される:1) 参照コントラストから目標コントラストに似たデータを合成する学習、2) スキャン間の動きを低減するためのマルチコントラストデータの登録、3) 目標コントラストの再構成のための登録データの利用。これらのステップでは、整合性を確保するために正則化が適用され、両方の領域で学習が行われる。また、脳MRIスキャンのデータセットを用いて、既存の深層学習ベースの手法と再構成性能を比較する。結果広範な実験により、我々の提案するフレームワークが、最先端のアルゴリズムと比較して、最大8倍の加速率で優れていることが実証された。包括的な分析とアブレーション研究は、さらに提案されたコンポーネントの有効性を提示する。結論:我々のデュアルドメインフレームワークは、マルチコントラストMRI再構成に有望なアプローチを提供する。また、既存の手法と統合することで、再構成をさらに向上させることができる。

要約(オリジナル)

Purpose: To develop an efficient dual-domain reconstruction framework for multi-contrast MRI, with the focus on minimising cross-contrast misalignment in both the image and the frequency domains to enhance optimisation. Theory and Methods: Our proposed framework, based on deep learning, facilitates the optimisation for under-sampled target contrast using fully-sampled reference contrast that is quicker to acquire. The method consists of three key steps: 1) Learning to synthesise data resembling the target contrast from the reference contrast; 2) Registering the multi-contrast data to reduce inter-scan motion; and 3) Utilising the registered data for reconstructing the target contrast. These steps involve learning in both domains with regularisation applied to ensure their consistency. We also compare the reconstruction performance with existing deep learning-based methods using a dataset of brain MRI scans. Results: Extensive experiments demonstrate the superiority of our proposed framework, for up to an 8-fold acceleration rate, compared to state-of-the-art algorithms. Comprehensive analysis and ablation studies further present the effectiveness of the proposed components. Conclusion:Our dual-domain framework offers a promising approach to multi-contrast MRI reconstruction. It can also be integrated with existing methods to further enhance the reconstruction.

arxiv情報

著者 Junwei Yang,Pietro Liò
発行日 2023-12-01 15:40:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, eess.IV パーマリンク