要約
モーションアーチファクトの低減は、磁気共鳴イメージングにおいて最も懸念される問題の1つである。その解決策として、深層学習ベースの手法がMRIのアーチファクト低減タスクのために広く研究されています。レトロスペクティブな処理方法であるニューラルネットワークは、追加の撮影時間のコストや新しい撮影装置を必要とせず、従来のアーチファクト低減方法よりもうまく機能すると思われる。従来の研究では、このようなモデルの学習には、動き補正された画像と動き補正されていない画像のペアが必要であった。しかし、患者は2枚の画像を撮影する間、同じ状態を維持することが困難であるため、現実にはこれらの画像を得ることは非常に困難であり、教師あり方式での学習は非現実的である。本研究では、この問題を解決するために、教師なし異常抽出ネットワーク(UNAEN)を新たに提案する。本ネットワークは、ペアリングされていないMR画像中のアーチファクトによってもたらされる異常情報を処理することによって、アーチファクト領域からモーションフリー領域への移行を実現する。本手法は、動きがあるMR画像から直接アーチファクト低減結果を生成するのではなく、深部特徴を学習することで間接的にアーチファクトの影響を補正する異常値抽出の戦略を採用した。実験の結果、本手法は最先端のネットワークよりも優れており、実際の臨床現場での応用の可能性があることが示された。
要約(オリジナル)
Motion artifact reduction is one of the most concerned problems in magnetic resonance imaging. As a promising solution, deep learning-based methods have been widely investigated for artifact reduction tasks in MRI. As a retrospective processing method, neural network does not cost additional acquisition time or require new acquisition equipment, and seems to work better than traditional artifact reduction methods. In the previous study, training such models require the paired motion-corrupted and motion-free MR images. However, it is extremely tough or even impossible to obtain these images in reality because patients have difficulty in maintaining the same state during two image acquisition, which makes the training in a supervised manner impractical. In this work, we proposed a new unsupervised abnomality extraction network (UNAEN) to alleviate this problem. Our network realizes the transition from artifact domain to motion-free domain by processing the abnormal information introduced by artifact in unpaired MR images. Different from directly generating artifact reduction results from motion-corrupted MR images, we adopted the strategy of abnomality extraction to indirectly correct the impact of artifact in MR images by learning the deep features. Experimental results show that our method is superior to state-of-the-art networks and can potentially be applied in real clinical settings.
arxiv情報
著者 | Yusheng Zhou,Hao Li,Jianan Liu,Zhengmin Kong,Tao Huang,Euijoon Ah,Zhihan Lv |
発行日 | 2023-01-04 18:02:59+00:00 |
arxivサイト | arxiv_id(pdf) |