Robustness of Deep Learning for Accelerated MRI: Benefits of Diverse Training Data

要約

画像再構成のための深層学習ベースの方法は、さまざまな画像処理タスクにとって最先端のものです。
ただし、トレーニング データが適用先のデータと大幅に異なる場合、ニューラル ネットワークのパフォーマンスが低下することがよくあります。
たとえば、あるスキャナーで加速磁気共鳴画像法 (MRI) 用にトレーニングされたモデルは、別のスキャナーではパフォーマンスが低下します。
この研究では、加速された MRI に対するモデルのパフォーマンスと堅牢性に対するトレーニング データの影響を調査します。
さまざまな MRI スキャナーや解剖学的構造から得られたものなど、さまざまなデータ分布の組み合わせでトレーニングされたモデルは、特定のターゲット分布に対する最適な単一の分布でトレーニングされたモデルと同等以上の堅牢性を示すことがわかりました。
したがって、このような多様なデータに対するトレーニングは堅牢性を向上させる傾向があります。
さらに、そのような多様なデータセットでのトレーニングは分布内パフォーマンスを損なうことはありません。つまり、多様なデータでトレーニングされたモデルは、より狭い個別の分布でトレーニングされたモデルと少なくとも同程度の分布内パフォーマンスをもたらします。
私たちの結果は、さまざまな分布でイメージング用のモデルをトレーニングすると、個々の分布に対して個別のモデルを維持するよりも効果的で堅牢なモデルが得られる傾向があることを示唆しています。

要約(オリジナル)

Deep learning based methods for image reconstruction are state-of-the-art for a variety of imaging tasks. However, neural networks often perform worse if the training data differs significantly from the data they are applied to. For example, a model trained for accelerated magnetic resonance imaging (MRI) on one scanner performs worse on another scanner. In this work, we investigate the impact of the training data on a model’s performance and robustness for accelerated MRI. We find that models trained on the combination of various data distributions, such as those obtained from different MRI scanners and anatomies, exhibit robustness equal or superior to models trained on the best single distribution for a specific target distribution. Thus training on such diverse data tends to improve robustness. Furthermore, training on such a diverse dataset does not compromise in-distribution performance, i.e., a model trained on diverse data yields in-distribution performance at least as good as models trained on the more narrow individual distributions. Our results suggest that training a model for imaging on a variety of distributions tends to yield a more effective and robust model than maintaining separate models for individual distributions.

arxiv情報

著者 Kang Lin,Reinhard Heckel
発行日 2024-08-07 11:32:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク