Diagrammatization and Abduction to Improve AI Interpretability With Domain-Aligned Explanations for Medical Diagnosis

要約

多くの視覚化が説明可能なAI(XAI)のために開発されていますが、多くの場合、ユーザーが解釈するためのさらなる推論が必要です。
ハイステークの医学的診断のためにXaiを調査すると、解釈可能性のギャップを減らすために、図式的および誘ductiveな推論とのドメインの整合性を改善することを提案します。
心臓の聴診から心臓診断を予測するための図を開発し、基準評価に基づいて最適な仮説を選択し、臨床的に関連するつぶやき図で説明しました。
アンテホック解釈可能なモデルは、ドメインに関連するオントロジー、表現、および推論プロセスをレバレッジして、専門家ユーザーへの信頼を高めます。
モデリングの研究では、Diagramnetは忠実なつぶやきの形状の説明を提供するだけでなく、ベースラインモデルよりもパフォーマンスが向上することがわかりました。
医学生との定性的なユーザー研究における図式的で誘惑的な説明の解釈可能性と信頼性を示し、臨床的に関連する図式的な説明が技術的顕著性の地図の説明よりも好ましいことを示しています。
この作業は、複雑なドメインにおけるユーザー中心のXAIのドメインに並べられた説明を提供する洞察を提供します。

要約(オリジナル)

Many visualizations have been developed for explainable AI (XAI), but they often require further reasoning by users to interpret. Investigating XAI for high-stakes medical diagnosis, we propose improving domain alignment with diagrammatic and abductive reasoning to reduce the interpretability gap. We developed DiagramNet to predict cardiac diagnoses from heart auscultation, select the best-fitting hypothesis based on criteria evaluation, and explain with clinically-relevant murmur diagrams. The ante-hoc interpretable model leverages domain-relevant ontology, representation, and reasoning process to increase trust in expert users. In modeling studies, we found that DiagramNet not only provides faithful murmur shape explanations, but also has better performance than baseline models. We demonstrate the interpretability and trustworthiness of diagrammatic, abductive explanations in a qualitative user study with medical students, showing that clinically-relevant, diagrammatic explanations are preferred over technical saliency map explanations. This work contributes insights into providing domain-aligned explanations for user-centric XAI in complex domains.

arxiv情報

著者 Brian Y. Lim,Joseph P. Cahaly,Chester Y. F. Sng,Adam Chew
発行日 2025-02-26 18:09:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.LG パーマリンク