Designing Interpretable ML System to Enhance Trust in Healthcare: A Systematic Review to Proposed Responsible Clinician-AI-Collaboration Framework

要約

この論文では、ウェアラブル、遠隔医療、大規模言語モデル、デジタル ツインなどの AI ベースの医療機器が臨床意思決定支援システムに及ぼす重大な影響について調査します。
この論文は、正確なだけでなく、臨床医にとって解釈可能かつ理解可能な結果を​​生み出すことの重要性を強調し、解釈可能性の欠如が医療におけるこれらのテクノロジーの導入に対する不信感や消極性の観点からもたらすリスクに対処しています。
この論文では、AI システムと臨床医の間の責任あるコミュニケーションを促進するための品質管理に焦点を当て、解釈可能な AI のプロセス、手法、アプリケーション、医療分野での実装の課題について概説しています。
これは、解釈可能性のプロセスをデータの前処理、モデルの選択、後処理に分類し、医療における堅牢な解釈可能性のアプローチの重要な役割についての包括的な理解を促進し、この分野での将来の研究を導くことを目的としています。
医療向けの責任ある臨床医向け AI ツールを作成するための洞察を提供するだけでなく、臨床医が直面する可能性のある課題についてのより深い理解を提供します。
私たちの研究課題、適格基準、主な目標は、システマティックレビューおよびメタ分析ガイドラインおよび PICO 手法に推奨される報告項目を使用して特定されました。
PubMed、Scopus、および Web of Science データベースは、機密性の高い特定の検索文字列を使用して体系的に検索されました。
最終的に、8 件の既存のレビューと 44 件の関連実験研究を含む 52 件の出版物がデータ抽出のために選択されました。
この論文では、医療における解釈可能な AI の一般的な概念を示し、3 つのレベルの解釈可能プロセスについて説明します。
さらに、医療における堅牢な解釈可能性 AI の評価についての包括的な議論を提供します。
さらに、この調査では、医療分野で責任ある AI を導入するための段階的なロードマップが紹介されています。

要約(オリジナル)

This paper explores the significant impact of AI-based medical devices, including wearables, telemedicine, large language models, and digital twins, on clinical decision support systems. It emphasizes the importance of producing outcomes that are not only accurate but also interpretable and understandable to clinicians, addressing the risk that lack of interpretability poses in terms of mistrust and reluctance to adopt these technologies in healthcare. The paper reviews interpretable AI processes, methods, applications, and the challenges of implementation in healthcare, focusing on quality control to facilitate responsible communication between AI systems and clinicians. It breaks down the interpretability process into data pre-processing, model selection, and post-processing, aiming to foster a comprehensive understanding of the crucial role of a robust interpretability approach in healthcare and to guide future research in this area. with insights for creating responsible clinician-AI tools for healthcare, as well as to offer a deeper understanding of the challenges they might face. Our research questions, eligibility criteria and primary goals were identified using Preferred Reporting Items for Systematic reviews and Meta-Analyses guideline and PICO method; PubMed, Scopus and Web of Science databases were systematically searched using sensitive and specific search strings. In the end, 52 publications were selected for data extraction which included 8 existing reviews and 44 related experimental studies. The paper offers general concepts of interpretable AI in healthcare and discuss three-levels interpretability process. Additionally, it provides a comprehensive discussion of evaluating robust interpretability AI in healthcare. Moreover, this survey introduces a step-by-step roadmap for implementing responsible AI in healthcare.

arxiv情報

著者 Elham Nasarian,Roohallah Alizadehsani,U. Rajendra Acharya,Kwok-Leung Tsui
発行日 2024-04-10 16:46:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.LG パーマリンク