要約
タイトル:説明可能なAIと視覚的推論:放射線学からの知見
要約:
– なぜ放射線学におけるXAI(説明可能なAI)の説明は、透明性の約束にもかかわらず、人間の信頼を得ることができないのか。
– 現在のXAIアプローチは、予測の正当化を提供するが、実践者のニーズには合わない。
– これらのXAI説明には、与えられた分類の根拠に対する直感的なカバレッジが欠けており、採用の重大な障壁となっている。
– 我々は、証明と根拠の正当化の人間のプロセスにマッチするXAI説明が、伝統的なヒートマップのような視覚的説明よりも有用で信頼性があると仮定している。
– 放射線学の事例研究を使用して、放射線学実践者が診断の結論の妥当性を他の実践者に理解させる方法を示す。
– 機械学習された分類にはこの証拠根拠が不足しているため、潜在的なユーザーから信頼と採用を得ることができない。
– この研究から得られる知見は、証明と根拠に基づく人間の推論と正当化に基づく人間中心の説明デザインの指針を一般化するためのものである。
要約(オリジナル)
Why do explainable AI (XAI) explanations in radiology, despite their promise of transparency, still fail to gain human trust? Current XAI approaches provide justification for predictions, however, these do not meet practitioners’ needs. These XAI explanations lack intuitive coverage of the evidentiary basis for a given classification, posing a significant barrier to adoption. We posit that XAI explanations that mirror human processes of reasoning and justification with evidence may be more useful and trustworthy than traditional visual explanations like heat maps. Using a radiology case study, we demonstrate how radiology practitioners get other practitioners to see a diagnostic conclusion’s validity. Machine-learned classifications lack this evidentiary grounding and consequently fail to elicit trust and adoption by potential users. Insights from this study may generalize to guiding principles for human-centered explanation design based on human reasoning and justification of evidence.
arxiv情報
著者 | Robert Kaufman,David Kirsh |
発行日 | 2023-04-06 18:30:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI