要約
医療分野などの安全性が重要な設定でディープ ラーニング モデルの予測を信頼することは、まだ実行可能な選択肢ではありません。
医用画像の分野における Distangled 不確実性の定量化は、ほとんど注目されていません。
この論文では、医療分野における画像から画像への変換タスクにおける絡み合っていない不確実性を研究します。
複数の不確実性定量化方法、つまり Ensembles、Flipout、Dropout、DropConnect を比較しながら、CycleGAN を使用して T1 強調脳 MRI スキャンを T2 強調脳 MRI スキャンに変換します。
分布外データ (脳 CT および RGB 顔画像) が存在する場合の不確実性挙動をさらに評価し、認識論的不確実性を使用して分布外入力を検出できることを示します。これにより、モデル出力の信頼性が向上するはずです。
要約(オリジナル)
Trusting the predictions of deep learning models in safety critical settings such as the medical domain is still not a viable option. Distentangled uncertainty quantification in the field of medical imaging has received little attention. In this paper, we study disentangled uncertainties in image to image translation tasks in the medical domain. We compare multiple uncertainty quantification methods, namely Ensembles, Flipout, Dropout, and DropConnect, while using CycleGAN to convert T1-weighted brain MRI scans to T2-weighted brain MRI scans. We further evaluate uncertainty behavior in the presence of out of distribution data (Brain CT and RGB Face Images), showing that epistemic uncertainty can be used to detect out of distribution inputs, which should increase reliability of model outputs.
arxiv情報
著者 | Kumud Lakara,Matias Valdenegro-Toro |
発行日 | 2022-11-11 14:45:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google