Stable Deep MRI Reconstruction using Generative Priors

要約

データ駆動型アプローチは最近、磁気共鳴画像法 (MRI) 再構成において目覚ましい成功を収めましたが、一般化性と解釈可能性が欠如しているため、臨床ルーチンへの統合は依然として困難です。
この論文では、生成画像事前分布に基づいた統一フレームワークでこれらの課題に取り組みます。
我々は、基準等級画像のみの生成設定でトレーニングされる新しいディープ ニューラル ネットワーク ベースのレギュラライザーを提案します。
トレーニング後、レギュラライザーは高レベルのドメイン統計をエンコードします。これを、データなしの画像を合成することで示します。
トレーニングされたモデルを古典的な変分アプローチに埋め込むと、サブサンプリング パターンに関係なく高品質の再構成が得られます。
さらに、このモデルは、コントラスト変動の形で分布外のデータに直面した場合でも、安定した動作を示します。
さらに、確率的解釈により再構成の分布が得られるため、不確実性の定量化が可能になります。
並列 MRI を再構成するために、画像と感度マップを共同推定する高速アルゴリズムを提案します。
この結果は、サブサンプリング パターンに関する柔軟性を維持し、不確実性の定量化を可能にしながら、最先端のエンドツーエンドの深層学習手法と同等の競争力のあるパフォーマンスを示しています。

要約(オリジナル)

Data-driven approaches recently achieved remarkable success in magnetic resonance imaging (MRI) reconstruction, but integration into clinical routine remains challenging due to a lack of generalizability and interpretability. In this paper, we address these challenges in a unified framework based on generative image priors. We propose a novel deep neural network based regularizer which is trained in a generative setting on reference magnitude images only. After training, the regularizer encodes higher-level domain statistics which we demonstrate by synthesizing images without data. Embedding the trained model in a classical variational approach yields high-quality reconstructions irrespective of the sub-sampling pattern. In addition, the model shows stable behavior when confronted with out-of-distribution data in the form of contrast variation. Furthermore, a probabilistic interpretation provides a distribution of reconstructions and hence allows uncertainty quantification. To reconstruct parallel MRI, we propose a fast algorithm to jointly estimate the image and the sensitivity maps. The results demonstrate competitive performance, on par with state-of-the-art end-to-end deep learning methods, while preserving the flexibility with respect to sub-sampling patterns and allowing for uncertainty quantification.

arxiv情報

著者 Martin Zach,Florian Knoll,Thomas Pock
発行日 2023-06-15 17:10:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク