K-UNN: k-Space Interpolation With Untrained Neural Network

要約

近年、学習していないニューラルネットワーク(UNN)が、追加のフルサンプル学習データを用いることなく、ランダムサンプリング軌道上のMR画像再構成に満足のいく性能を示している。しかし、既存のUNNベースのアプローチは、MR画像の物理的な事前分布を十分に利用していないため、いくつかの一般的なシナリオ(例えば、部分フーリエ、正規サンプリングなど)において性能が低く、再構成精度に対する理論的保証がない。このギャップを埋めるために、我々は、スパース性、コイル感度平滑性、位相平滑性を含むMR画像(またはk空間データ)の3つの物理的事前分布を駆動する3重アーキテクチャを持つ特別設計UNNを用いたMRI用セーフガードk空間補間法を提案する。また、提案手法は補間されたk空間データの精度の厳密な境界を保証することを証明する。最後に、アブレーション実験により、提案手法は既存の従来手法よりも正確にMR画像の物理的プリオンを特徴付けることができることを示す。さらに、一般的に使用される一連のサンプリング軌道の下で、実験では、提案法が一貫して従来の並列イメージング法や既存のUNNを上回り、いくつかのケースでは最新の教師付き学習k空間深層学習法をも上回ることも示している。

要約(オリジナル)

Recently, untrained neural networks (UNNs) have shown satisfactory performances for MR image reconstruction on random sampling trajectories without using additional full-sampled training data. However, the existing UNN-based approach does not fully use the MR image physical priors, resulting in poor performance in some common scenarios (e.g., partial Fourier, regular sampling, etc.) and the lack of theoretical guarantees for reconstruction accuracy. To bridge this gap, we propose a safeguarded k-space interpolation method for MRI using a specially designed UNN with a tripled architecture driven by three physical priors of the MR images (or k-space data), including sparsity, coil sensitivity smoothness, and phase smoothness. We also prove that the proposed method guarantees tight bounds for interpolated k-space data accuracy. Finally, ablation experiments show that the proposed method can more accurately characterize the physical priors of MR images than existing traditional methods. Additionally, under a series of commonly used sampling trajectories, experiments also show that the proposed method consistently outperforms traditional parallel imaging methods and existing UNNs, and even outperforms the state-of-the-art supervised-trained k-space deep learning methods in some cases.

arxiv情報

著者 Zhuo-Xu Cui,Sen Jia,Qingyong Zhu,Congcong Liu,Zhilang Qiu,Yuanyuan Liu,Jing Cheng,Haifeng Wang,Yanjie Zhu,Dong Liang
発行日 2022-08-11 13:53:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク