要約
ディープラーニングの目覚ましい成功により、医用画像診断への応用への関心が高まっています。
最先端の深層学習モデルは、さまざまな種類の医療データの分類で人間レベルの精度を達成していますが、主に解釈可能性がないため、これらのモデルは臨床ワークフローにほとんど採用されていません。
ディープラーニングモデルのブラックボックス性により、これらのモデルの意思決定プロセスを説明するための戦略を考案する必要性が高まり、eXplainable Artificial Intelligence(XAI)のトピックが作成されました。
これに関連して、視覚、テキスト、例ベース、および概念ベースの説明方法を含む、医用画像診断に適用されるXAIの徹底的な調査を提供します。
さらに、この作業では、説明の質を評価するための既存の医用画像データセットと既存のメトリックを確認します。
さらに、一連のレポート生成ベースのメソッド間のパフォーマンス比較が含まれています。
最後に、XAIを医用画像に適用する際の主な課題と、このトピックに関する今後の研究の方向性についても説明します。
要約(オリジナル)
The remarkable success of deep learning has prompted interest in its application to medical imaging diagnosis. Even though state-of-the-art deep learning models have achieved human-level accuracy on the classification of different types of medical data, these models are hardly adopted in clinical workflows, mainly due to their lack of interpretability. The black-box-ness of deep learning models has raised the need for devising strategies to explain the decision process of these models, leading to the creation of the topic of eXplainable Artificial Intelligence (XAI). In this context, we provide a thorough survey of XAI applied to medical imaging diagnosis, including visual, textual, example-based and concept-based explanation methods. Moreover, this work reviews the existing medical imaging datasets and the existing metrics for evaluating the quality of the explanations. In addition, we include a performance comparison among a set of report generation-based methods. Finally, the major challenges in applying XAI to medical imaging and the future research directions on the topic are also discussed.
arxiv情報
著者 | Cristiano Patrício,João C. Neves,Luís F. Teixeira |
発行日 | 2022-06-13 13:31:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google