Assisting clinical practice with fuzzy probabilistic decision trees

要約

タイトル:ファジー確率的決定木による臨床実践の支援

要約:
– AI研究において、完全に人間が理解できるモデルの必要性が高まっており、特に医療分野での意思決定を支援するモデルが求められている。
– 本研究では、確率木とファジーロジックを組み合わせたFPT(MedFP)という新しい手法を提案している。この手法は、完全に解釈可能であり、医療従事者が診断プロセスを生成、制御、検証することができる。
– この手法は、患者の誤診率を低下させるとともに、不確実性と反事実の見積もりを提供することができる。
– この手法を、悪性甲状腺結節の分類と慢性腎臓病患者の進行リスク予測の実際の医療シナリオに適用し、解釈可能な診断支援を提供することができることを示した。
– また、この手法を使用するために特に設計されたユーザーフレンドリーなインターフェイスを使用して、臨床実践を直感的に支援することができるとともに、モデルの解釈可能性についても議論した。

要約(オリジナル)

The need for fully human-understandable models is increasingly being recognised as a central theme in AI research. The acceptance of AI models to assist in decision making in sensitive domains will grow when these models are interpretable, and this trend towards interpretable models will be amplified by upcoming regulations. One of the killer applications of interpretable AI is medical practice, which can benefit from accurate decision support methodologies that inherently generate trust. In this work, we propose FPT, (MedFP), a novel method that combines probabilistic trees and fuzzy logic to assist clinical practice. This approach is fully interpretable as it allows clinicians to generate, control and verify the entire diagnosis procedure; one of the methodology’s strength is the capability to decrease the frequency of misdiagnoses by providing an estimate of uncertainties and counterfactuals. Our approach is applied as a proof-of-concept to two real medical scenarios: classifying malignant thyroid nodules and predicting the risk of progression in chronic kidney disease patients. Our results show that probabilistic fuzzy decision trees can provide interpretable support to clinicians, furthermore, introducing fuzzy variables into the probabilistic model brings significant nuances that are lost when using the crisp thresholds set by traditional probabilistic decision trees. We show that FPT and its predictions can assist clinical practice in an intuitive manner, with the use of a user-friendly interface specifically designed for this purpose. Moreover, we discuss the interpretability of the FPT model.

arxiv情報

著者 Emma L. Ambag,Giulia Capitoli,Vincenzo L’ Imperio,Michele Provenzano,Marco S. Nobile,Pietro Liò
発行日 2023-04-16 14:05:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.LG, q-bio.QM パーマリンク