Explainable AI for clinical risk prediction: a survey of concepts, methods, and modalities

要約

ヘルスケアへの AI アプリケーションの最近の進歩は、診断と病気の予後において人間のパフォーマンスを超えるという信じられないほどの期待を示しています。
しかし、AI モデルの複雑さが増すにつれ、その不透明性、潜在的なバイアス、解釈可能性の必要性に関する懸念が生じています。
AI システム、特に臨床リスク予測モデルの信頼性を確保するには、説明可能性が重要になります。
説明可能性は、通常、意思決定ロジックまたは意思決定自体の堅牢な解釈を人間の利害関係者に提供する AI システムの能力と呼ばれます。
臨床リスク予測では、公平性、偏見、信頼、透明性などの説明可能性の他の側面も、単なる解釈可能性を超えた重要な概念を表します。
このレビューでは、これらの概念は一緒に、または互換的に使用されることが多いため、それらの概念間の関係について説明します。
このレビューでは、臨床リスク予測のための説明可能なモデルの開発における最近の進歩についても議論し、臨床実践における複数の一般的なモダリティにわたる定量的および臨床的評価と検証の重要性を強調しています。
信頼と公平性を高めるためには、外部検証と多様な解釈可能性手法の組み合わせの必要性が強調されています。
既知の生成要因を含む合成データセットを使用するなど、厳密なテストを採用すると、説明可能性手法の信頼性をさらに向上させることができます。
オープンアクセスとコード共有リソースは透明性と再現性にとって不可欠であり、説明可能な研究の成長と信頼性を可能にします。
課題は存在しますが、臨床医から開発者までの関係者を組み込んだ、臨床リスク予測における説明可能性へのエンドツーエンドのアプローチが成功には不可欠です。

要約(オリジナル)

Recent advancements in AI applications to healthcare have shown incredible promise in surpassing human performance in diagnosis and disease prognosis. With the increasing complexity of AI models, however, concerns regarding their opacity, potential biases, and the need for interpretability. To ensure trust and reliability in AI systems, especially in clinical risk prediction models, explainability becomes crucial. Explainability is usually referred to as an AI system’s ability to provide a robust interpretation of its decision-making logic or the decisions themselves to human stakeholders. In clinical risk prediction, other aspects of explainability like fairness, bias, trust, and transparency also represent important concepts beyond just interpretability. In this review, we address the relationship between these concepts as they are often used together or interchangeably. This review also discusses recent progress in developing explainable models for clinical risk prediction, highlighting the importance of quantitative and clinical evaluation and validation across multiple common modalities in clinical practice. It emphasizes the need for external validation and the combination of diverse interpretability methods to enhance trust and fairness. Adopting rigorous testing, such as using synthetic datasets with known generative factors, can further improve the reliability of explainability methods. Open access and code-sharing resources are essential for transparency and reproducibility, enabling the growth and trustworthiness of explainable research. While challenges exist, an end-to-end approach to explainability in clinical risk prediction, incorporating stakeholders from clinicians to developers, is essential for success.

arxiv情報

著者 Munib Mesinovic,Peter Watkinson,Tingting Zhu
発行日 2023-08-16 14:51:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG パーマリンク