EDUE: Expert Disagreement-Guided One-Pass Uncertainty Estimation for Medical Image Segmentation

要約

医療アプリケーションへの深層学習 (DL) モデルの導入は、予測パフォーマンスと、信頼できる予測の不確実性の伝達などのその他の重要な要素に依存します。
不確実性推定 (UE) 手法は、予測の信頼性を評価し、モデルの信頼性校正を改善するための潜在的なソリューションを提供します。
UE への関心が高まっているにもかかわらず、偶然の不確実性を捉え、不確実性の推定値を領域専門家間の実際の意見の相違と一致させるための明示的な方法の必要性など、課題は依然として残っています。
この論文では、医療画像セグメンテーションのための専門家の意見の不一致に基づく不確実性推定 (EDUE) を提案します。
複数の評価者によるグラウンドトゥルースのアノテーションのばらつきを利用することで、トレーニング中にモデルをガイドし、ランダム サンプリング ベースの戦略を組み込んでキャリブレーションの信頼性を高めます。
私たちの方法は、最先端のディープアンサンブルと比較して、画像レベルとピクセルレベルでの専門家の意見の相違を除き、それぞれ平均で 55% と 23% の相関性の改善、優れたキャリブレーション、および 1 つの前方処理のみを必要とする競争力のあるセグメンテーションのパフォーマンスを達成します。
合格。

要約(オリジナル)

Deploying deep learning (DL) models in medical applications relies on predictive performance and other critical factors, such as conveying trustworthy predictive uncertainty. Uncertainty estimation (UE) methods provide potential solutions for evaluating prediction reliability and improving the model confidence calibration. Despite increasing interest in UE, challenges persist, such as the need for explicit methods to capture aleatoric uncertainty and align uncertainty estimates with real-life disagreements among domain experts. This paper proposes an Expert Disagreement-Guided Uncertainty Estimation (EDUE) for medical image segmentation. By leveraging variability in ground-truth annotations from multiple raters, we guide the model during training and incorporate random sampling-based strategies to enhance calibration confidence. Our method achieves 55% and 23% improvement in correlation on average with expert disagreements at the image and pixel levels, respectively, better calibration, and competitive segmentation performance compared to the state-of-the-art deep ensembles, requiring only a single forward pass.

arxiv情報

著者 Kudaibergen Abutalip,Numan Saeed,Ikboljon Sobirov,Vincent Andrearczyk,Adrien Depeursinge,Mohammad Yaqub
発行日 2024-03-25 10:13:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク