Diagrammatization: Rationalizing with diagrammatic AI explanations for abductive-deductive reasoning on hypotheses

要約

Explainable AI (XAI) 向けに多くのビジュアライゼーションが開発されていますが、多くの場合、解釈するにはユーザーによるさらなる推論が必要です。
XAI は、解釈可能性のギャップを減らすために、AI が仮説生成と評価を実行するための図式的推論とアブダクティブ推論をサポートする必要があると主張します。
私たちは、i) パーセンのアブダクティブ・演繹的推論を実行し、ii) ドメインの規則に従い、iii) 視覚的または口頭で図を使って説明するための図化を提案します。
私たちは、心臓聴診から心臓診断を予測し、形状ベースの心雑音図で説明する臨床アプリケーションとして DiagramNet を実装しました。
モデリング研究では、DiagramNet が忠実な雑音形状の説明を提供するだけでなく、ベースライン モデルよりも優れた予測パフォーマンスを備えていることがわかりました。
さらに、医学生を対象とした定性的なユーザー調査において、図による説明の解釈可能性と信頼性を実証し、技術的な顕著性マップの説明よりも臨床に関連した図による説明が好まれることを示しています。
この研究は、ユーザー中心の XAI に対するドメインの従来型のアブダクティブな説明を提供するための洞察に貢献します。

要約(オリジナル)

Many visualizations have been developed for explainable AI (XAI), but they often require further reasoning by users to interpret. We argue that XAI should support diagrammatic and abductive reasoning for the AI to perform hypothesis generation and evaluation to reduce the interpretability gap. We propose Diagrammatization to i) perform Peircean abductive-deductive reasoning, ii) follow domain conventions, and iii) explain with diagrams visually or verbally. We implemented DiagramNet for a clinical application to predict cardiac diagnoses from heart auscultation, and explain with shape-based murmur diagrams. In modeling studies, we found that DiagramNet not only provides faithful murmur shape explanations, but also has better prediction performance than baseline models. We further demonstrate the interpretability and trustworthiness of diagrammatic explanations in a qualitative user study with medical students, showing that clinically-relevant, diagrammatic explanations are preferred over technical saliency map explanations. This work contributes insights into providing domain-conventional abductive explanations for user-centric XAI.

arxiv情報

著者 Brian Y. Lim,Joseph P. Cahaly,Chester Y. F. Sng,Adam Chew
発行日 2023-07-12 11:42:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.LG パーマリンク