要約
ディープラーニング(DL)は定量的MRIのパラメータ推定手法として人気を集めています。
教師あり学習または自己教師あり学習のいずれかに依存して、競合するさまざまな実装が提案されています。
自己教師ありアプローチ (教師なしとも呼ばれることもあります) は、大まかに自動エンコーダーに基づいていますが、教師ありメソッドは、これまでグラウンドトゥルース ラベルに基づいてトレーニングされてきました。
これら 2 つの学習パラダイムには、異なる長所があることがわかっています。
特に、自己教師ありアプローチは、教師ありアプローチよりも低いバイアス パラメーター推定値を提供します。
この結果は直観に反しています。理論的には、事前の知識を教師付きラベルに組み込むことで精度が向上するはずです。
この研究では、教師ありアプローチのこの明らかな制限が、グラウンドトゥルース トレーニング ラベルの単純な選択に起因することを示します。
意図的にグラウンドトゥルースではないラベルでトレーニングすることにより、これまで自己教師あり手法に関連付けられていた低バイアス パラメーター推定を教師あり学習フレームワーク内で再現し、改善できることを示します。
このアプローチは、教師あり学習に基づいた、単一の統合された深層学習パラメーター推定フレームワークの準備を整えます。バイアスと分散の間のトレードオフは、トレーニング ラベルを慎重に調整することによって行われます。
要約(オリジナル)
Deep learning (DL) is gaining popularity as a parameter estimation method for quantitative MRI. A range of competing implementations have been proposed, relying on either supervised or self-supervised learning. Self-supervised approaches, sometimes referred to as unsupervised, have been loosely based on auto-encoders, whereas supervised methods have, to date, been trained on groundtruth labels. These two learning paradigms have been shown to have distinct strengths. Notably, self-supervised approaches have offered lower-bias parameter estimates than their supervised alternatives. This result is counterintuitive – incorporating prior knowledge with supervised labels should, in theory, lead to improved accuracy. In this work, we show that this apparent limitation of supervised approaches stems from the naive choice of groundtruth training labels. By training on labels which are deliberately not groundtruth, we show that the low-bias parameter estimation previously associated with self-supervised methods can be replicated – and improved on – within a supervised learning framework. This approach sets the stage for a single, unifying, deep learning parameter estimation framework, based on supervised learning, where trade-offs between bias and variance are made by careful adjustment of training label.
arxiv情報
著者 | Sean C. Epstein,Timothy J. P. Bray,Margaret Hall-Craggs,Hui Zhang |
発行日 | 2024-01-23 17:26:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google