要約
ディープラーニングの目覚ましい成功により、医療画像診断への応用への関心が高まっています。
最先端の深層学習モデルは、さまざまなタイプの医療データの分類において人間レベルの精度を達成していますが、主に解釈可能性が欠如しているため、これらのモデルは臨床ワークフローにはほとんど採用されていません。
深層学習モデルのブラックボックス性により、これらのモデルの意思決定プロセスを説明する戦略を考案する必要性が高まり、説明可能な人工知能 (XAI) というトピックの作成につながりました。
これに関連して、ビジュアル、テキスト、例ベース、コンセプトベースの説明方法を含む、医用画像診断に適用される XAI の徹底的な調査を提供します。
さらに、この研究では、既存の医用画像データセットと説明の質を評価するための既存の指標をレビューします。
さらに、一連のレポート生成ベースのメソッド間のパフォーマンスの比較も含まれています。
最後に、XAI を医療画像に適用する際の主要な課題と、このテーマに関する今後の研究の方向性についても説明します。
要約(オリジナル)
The remarkable success of deep learning has prompted interest in its application to medical imaging diagnosis. Even though state-of-the-art deep learning models have achieved human-level accuracy on the classification of different types of medical data, these models are hardly adopted in clinical workflows, mainly due to their lack of interpretability. The black-box-ness of deep learning models has raised the need for devising strategies to explain the decision process of these models, leading to the creation of the topic of eXplainable Artificial Intelligence (XAI). In this context, we provide a thorough survey of XAI applied to medical imaging diagnosis, including visual, textual, example-based and concept-based explanation methods. Moreover, this work reviews the existing medical imaging datasets and the existing metrics for evaluating the quality of the explanations. In addition, we include a performance comparison among a set of report generation-based methods. Finally, the major challenges in applying XAI to medical imaging and the future research directions on the topic are also discussed.
arxiv情報
著者 | Cristiano Patrício,João C. Neves,Luís F. Teixeira |
発行日 | 2023-09-19 13:03:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google