Stable Deep MRI Reconstruction using Generative Priors

要約

データ駆動型アプローチは最近、磁気共鳴画像法 (MRI) 再構成において目覚ましい成功を収めましたが、一般化可能性と解釈可能性が不足しているため、臨床ルーチンへの統合は依然として困難です。
このホワイト ペーパーでは、これらの課題に、生成画像の事前確率に基づく統一されたフレームワークで対処します。
参照マグニチュード画像のみの教師なし設定でトレーニングされる、新しいディープ ニューラル ネットワーク ベースの正則化器を提案します。
トレーニング後、レギュラライザーは高レベルのドメイン統計をエンコードします。これは、データなしで画像を合成することによって実証されます。
トレーニング済みのモデルを従来の変分アプローチに埋め込むと、サブサンプリング パターンに関係なく、高品質の再構成が得られます。
さらに、テスト データがトレーニング データから大きく外れていても、モデルは安定した動作を示します。
さらに、確率論的解釈は再構成の分布を提供するため、不確実性の定量化が可能になります。
並列 MRI を再構築するために、画像と感度マップを共同で推定する高速アルゴリズムを提案します。
結果は、サブサンプリング パターンに関する柔軟性を維持し、不確実性の定量化を可能にしながら、最先端のエンド ツー エンドのディープ ラーニング手法と同等の競争力のあるパフォーマンスを示しています。

要約(オリジナル)

Data-driven approaches recently achieved remarkable success in magnetic resonance imaging (MRI) reconstruction, but integration into clinical routine remains challenging due to a lack of generalizability and interpretability. In this paper, we address these challenges in a unified framework based on generative image priors. We propose a novel deep neural network based regularizer which is trained in an unsupervised setting on reference magnitude images only. After training, the regularizer encodes higher-level domain statistics which we demonstrate by synthesizing images without data. Embedding the trained model in a classical variational approach yields high-quality reconstructions irrespective of the sub-sampling pattern. In addition, the model shows stable behavior even if the test data deviate significantly from the training data. Furthermore, a probabilistic interpretation provides a distribution of reconstructions and hence allows uncertainty quantification. To reconstruct parallel MRI, we propose a fast algorithm to jointly estimate the image and the sensitivity maps. The results demonstrate competitive performance, on par with state-of-the-art end-to-end deep learning methods, while preserving the flexibility with respect to sub-sampling patterns and allowing for uncertainty quantification.

arxiv情報

著者 Martin Zach,Florian Knoll,Thomas Pock
発行日 2023-02-17 11:23:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク