Diffusion Tensor Estimation with Uncertainty Calibration

要約

モデルの予測がどの程度不確実であるかを知ることは、特に深層学習のように複雑で理解しにくいモデルの場合に非常に望ましいことです。
拡散強調 MRI で深層学習手法を使用することへの関心が高まっていますが、これまでの研究ではモデルの不確実性の問題に対処していませんでした。
ここでは、拡散テンソルを推定し、推定の不確実性を計算する深層学習手法を提案します。
データ依存の不確実性はネットワークによって直接計算され、損失減衰を通じて学習されます。
モデルの不確実性は、モンテカルロ ドロップアウトを使用して計算されます。
また、予測された不確実性の品質を評価するための新しい方法も提案します。
新しい方法を、標準的な最小二乗テンソル推定およびブートストラップベースの不確実性計算手法と比較します。
私たちの実験では、測定数が少ない場合、深層学習手法の方が正確であり、その不確実性予測が標準的な手法よりも適切に調整されていることを示しています。
新しい方法によって計算された推定の不確実性は、モデルのバイアスを強調し、ドメインのシフトを検出し、測定値のノイズの強さを反映できることを示します。
私たちの研究は、深層学習ベースの拡散 MRI 解析における予測不確実性のモデリングの重要性と実用的価値を示しています。

要約(オリジナル)

It is highly desirable to know how uncertain a model’s predictions are, especially for models that are complex and hard to understand as in deep learning. Although there has been a growing interest in using deep learning methods in diffusion-weighted MRI, prior works have not addressed the issue of model uncertainty. Here, we propose a deep learning method to estimate the diffusion tensor and compute the estimation uncertainty. Data-dependent uncertainty is computed directly by the network and learned via loss attenuation. Model uncertainty is computed using Monte Carlo dropout. We also propose a new method for evaluating the quality of predicted uncertainties. We compare the new method with the standard least-squares tensor estimation and bootstrap-based uncertainty computation techniques. Our experiments show that when the number of measurements is small the deep learning method is more accurate and its uncertainty predictions are better calibrated than the standard methods. We show that the estimation uncertainties computed by the new method can highlight the model’s biases, detect domain shift, and reflect the strength of noise in the measurements. Our study shows the importance and practical value of modeling prediction uncertainties in deep learning-based diffusion MRI analysis.

arxiv情報

著者 Davood Karimi,Simon K. Warfield,Ali Gholipour
発行日 2024-08-27 12:09:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, eess.IV パーマリンク