要約
モーション アーティファクトの低減は、磁気共鳴イメージングで最も懸念される問題の 1 つです。
近年、深層学習ベースの方法は、MRI のアーティファクト削減タスクのために広く調査されています。
レトロスペクティブな処理方法として、ニューラル ネットワークは追加の取得時間や新しい取得機器を必要とせず、従来のアーティファクト削減方法よりもうまく機能するようです。
以前の研究では、このようなモデルのトレーニングには、動きが壊れた MR 画像と動きのない MR 画像のペアが必要です。
ただし、患者は 2 つの画像取得中に同じ状態を維持することが困難であるため、これらの画像を実際に取得することは非常に困難であるか、不可能でさえあります。
この論文では、この問題を軽減するために、新しい教師なし異常抽出ネットワーク (UNAEN) を提案しました。
私たちのネットワークは、対になっていない MR 画像のアーチファクトによって導入された異常な情報を処理することにより、アーチファクト ドメインからモーション フリー ドメインへの移行を実現します。
モーション破損 MR 画像からアーティファクト削減結果を直接生成するのとは異なり、深い特徴を学習することによって MR 画像のアーティファクトの影響を間接的に修正する異常抽出の戦略を採用しました。
実験結果は、私たちの方法が最先端のネットワークよりも優れており、実際の臨床現場に適用できる可能性があることを示しています。
要約(オリジナル)
Motion artifact reduction is one of the most concerned problems in magnetic resonance imaging. In recent years, deep learning-based methods have been widely investigated for artifact reduction tasks in MRI. As a retrospective processing method, neural network does not cost additional acquisition time or require new acquisition equipment, and seems to work better than traditional artifact reduction methods. In the previous study, training such models require the paired motion-corrupted and motion-free MR images. However, it is extremely tough or even impossible to obtain these images in reality because patients have difficulty in maintaining the same state during two image acquisition, which makes the training in a supervised manner impractical. In this paper, we proposed a new unsupervised abnormality extraction network (UNAEN) to alleviate this problem. Our network realizes the transition from artifact domain to motion-free domain by processing the abnormal information introduced by artifact in unpaired MR images. Different from directly generating artifact reduction results from motion-corrupted MR images, we adopted the strategy of abnormality extraction to indirectly correct the impact of artifact in MR images by learning the deep features. Experimental results show that our method is superior to state-of-the-art networks and can potentially be applied in real clinical settings.
arxiv情報
著者 | Yusheng Zhou,Hao Li,Jianan Liu,Zhengmin Kong,Tao Huang,Euijoon Ahn,Zhihan Lv |
発行日 | 2023-02-10 10:38:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google