Improving Uncertainty-based Out-of-Distribution Detection for Medical Image Segmentation

要約

ディープ ラーニング モデルは、トレーニング中に見られなかった入力画像の変化によって簡単に乱され、予測できない動作を引き起こします。
このようなアウト オブ ディストリビューション (OOD) 画像は、アーティファクト、目に見えない病状、または異なるイメージング プロトコルを含む、考えられる異常の範囲が非常に広い医療画像解析のコンテキストにおいて重要な課題を表しています。
この作業では、多発性硬化症病変セグメンテーションのコンテキストで OOD 入力を検出するために、さまざまな不確実性フレームワークを評価します。
さまざまな性質と強度の OOD の 14 のソースを含む包括的な評価スキームを実装することにより、バイナリ セグメンテーション モデルの予測の不確実性に依存する方法は、外れ値の入力の検出に失敗することが多いことを示します。
それどころか、病変に沿って解剖学的ラベルをセグメント化することを学習すると、OOD 入力を検出する能力が大幅に向上します。

要約(オリジナル)

Deep Learning models are easily disturbed by variations in the input images that were not seen during training, resulting in unpredictable behaviours. Such Out-of-Distribution (OOD) images represent a significant challenge in the context of medical image analysis, where the range of possible abnormalities is extremely wide, including artifacts, unseen pathologies, or different imaging protocols. In this work, we evaluate various uncertainty frameworks to detect OOD inputs in the context of Multiple Sclerosis lesions segmentation. By implementing a comprehensive evaluation scheme including 14 sources of OOD of various nature and strength, we show that methods relying on the predictive uncertainty of binary segmentation models often fails in detecting outlying inputs. On the contrary, learning to segment anatomical labels alongside lesions highly improves the ability to detect OOD inputs.

arxiv情報

著者 Benjamin Lambert,Florence Forbes,Senan Doyle,Alan Tucholka,Michel Dojat
発行日 2022-11-10 08:54:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク