要約
高品質なMRI再構成は、臨床応用において重要な役割を果たす。ディープラーニングに基づく手法は、MRI再構成において有望な結果を得ている。しかし,ほとんどの最先端手法は,PSNRやSSIMといった自然画像によく用いられる評価指標を最適化するように設計されており,視覚的な品質は主に追求されていない.そのため,再構成された画像はフルサンプリングされた画像と比較して不鮮明であり,高周波の特徴量が十分でない場合があり,臨床診断に適さない.このため、我々はMRI画像再構成の視覚的品質を改善するために、反転可能な鮮鋭化ネットワーク(InvSharpNet)を提案する。InvSharpNetは、学習時に、入力データをグランドトゥルースにマッピングする従来の手法とは異なり、グランドトゥルース(完全サンプリング画像)から入力データ(ぼやけた再構成)へのぼかし変換を学習する逆方向学習戦略を適応させる。推論中、学習されたぼかし変換は、ネットワークの反転可能性を利用してシャープ変換に反転させることができる。様々なMRIデータセットでの実験により、InvSharpNetはアーチファクトをほとんど発生させずに再構成の鮮明さを改善できることが実証された。また、放射線科医による評価も行い、提案手法の視覚的品質と診断の信頼性が向上していることを示す。
要約(オリジナル)
High-quality MRI reconstruction plays a critical role in clinical applications. Deep learning-based methods have achieved promising results on MRI reconstruction. However, most state-of-the-art methods were designed to optimize the evaluation metrics commonly used for natural images, such as PSNR and SSIM, whereas the visual quality is not primarily pursued. Compared to the fully-sampled images, the reconstructed images are often blurry, where high-frequency features might not be sharp enough for confident clinical diagnosis. To this end, we propose an invertible sharpening network (InvSharpNet) to improve the visual quality of MRI reconstructions. During training, unlike the traditional methods that learn to map the input data to the ground truth, InvSharpNet adapts a backward training strategy that learns a blurring transform from the ground truth (fully-sampled image) to the input data (blurry reconstruction). During inference, the learned blurring transform can be inverted to a sharpening transform leveraging the network’s invertibility. The experiments on various MRI datasets demonstrate that InvSharpNet can improve reconstruction sharpness with few artifacts. The results were also evaluated by radiologists, indicating better visual quality and diagnostic confidence of our proposed method.
arxiv情報
著者 | Siyuan Dong,Eric Z. Chen,Lin Zhao,Xiao Chen,Yikang Liu,Terrence Chen,Shanhui Sun |
発行日 | 2022-06-06 18:21:48+00:00 |
arxivサイト | arxiv_id(pdf) |