要約
Explainable AI (XAI) は、特に医療のようなリスクの高い環境において、実際の AI ベースのツールの実装と導入を促進する可能性を秘めています。
しかし、現在の研究のほとんどは実際の応用から切り離されており、エンドユーザーからの意見が不足しています。
これに対処するために、私たちは臨床医との半構造化インタビューを実施し、彼らの考え、希望、懸念について話し合いました。
臨床医は一般に、臨床診療用の AI ベースのツールの開発について前向きに考えていることがわかりましたが、それらが自分たちのワークフローにどのように適合するか、またそれが臨床医と患者の関係にどのような影響を与えるかについて懸念を抱いています。
さらに、AI に関する臨床医の教育がヘルスケアにおける AI の成功の重要な要素であることを特定し、臨床医が (X)AI ベースのツールに求めている側面を強調します。
他の研究とは対照的に、私たちは全体的かつ探索的な視点を取り入れて、ヘルスケア向けの特定の (X)AI 製品のテストに進む前に必要な一般的な要件を特定します。
要約(オリジナル)
Explainable AI (XAI) holds the promise of advancing the implementation and adoption of AI-based tools in practice, especially in high-stakes environments like healthcare. However, most of the current research is disconnected from its practical applications and lacks input of end users. To address this, we conducted semi-structured interviews with clinicians to discuss their thoughts, hopes, and concerns. We find that clinicians generally think positively about developing AI-based tools for clinical practice, but they have concerns about how these will fit into their workflow and how it will impact clinician-patient relations. We further identify education of clinicians on AI as a crucial factor for the success of AI in healthcare and highlight aspects clinicians are looking for in (X)AI-based tools. In contrast to other studies, we take on a holistic and exploratory perspective to identify general requirements, which is necessary before moving on to testing specific (X)AI products for healthcare.
arxiv情報
著者 | T. E. Röber,R. Goedhart,S. İ. Birbil |
発行日 | 2024-11-07 16:47:06+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google