Deep, Deep Learning with BART

要約

目的: MRI の再現可能な研究のための深層学習ベースの画像再構成フレームワークを開発すること。
方法: BART ツールボックスは、並列イメージングと圧縮センシングのためのキャリブレーションおよび再構成アルゴリズムの豊富な実装セットを提供します。
この作業では、勾配の計算を可能にする自動微分を提供する非線形演算子フレームワークによって BART が拡張されました。
不均一な高速フーリエ変換など、BART の既存の MRI 固有の演算子は、このフレームワークに直接統合され、ニューラル ネットワークで使用される一般的なビルディング ブロックによって補完されます。
高度な深層学習ベースの再構成のためのフレームワークの使用を評価するために、2 つの最先端の展開された再構成ネットワーク、すなわち Variational Network [1] と MoDL [2] が実装されました。
結果: 最先端の深層画像再構成ネットワークは、BART の勾配ベースの最適化アルゴリズムを使用して構築およびトレーニングできます。
BART 実装は、TensorFlow に基づく元の実装と比較して、トレーニング時間と再構成品質の点で同様のパフォーマンスを達成します。
結論: 非線形演算子とニューラル ネットワークを BART に統合することにより、MRI における深層学習ベースの再構成のための一般的なフレームワークを提供します。

要約(オリジナル)

Purpose: To develop a deep-learning-based image reconstruction framework for reproducible research in MRI. Methods: The BART toolbox offers a rich set of implementations of calibration and reconstruction algorithms for parallel imaging and compressed sensing. In this work, BART was extended by a non-linear operator framework that provides automatic differentiation to allow computation of gradients. Existing MRI-specific operators of BART, such as the non-uniform fast Fourier transform, are directly integrated into this framework and are complemented by common building blocks used in neural networks. To evaluate the use of the framework for advanced deep-learning-based reconstruction, two state-of-the-art unrolled reconstruction networks, namely the Variational Network [1] and MoDL [2], were implemented. Results: State-of-the-art deep image-reconstruction networks can be constructed and trained using BART’s gradient based optimization algorithms. The BART implementation achieves a similar performance in terms of training time and reconstruction quality compared to the original implementations based on TensorFlow. Conclusion: By integrating non-linear operators and neural networks into BART, we provide a general framework for deep-learning-based reconstruction in MRI.

arxiv情報

著者 Moritz Blumenthal,Guanxiong Luo,Martin Schilling,H. Christian M. Holme,Martin Uecker
発行日 2022-09-23 12:05:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.SP パーマリンク