Investigating the Effectiveness of Explainability Methods in Parkinson’s Detection from Speech

要約

パーキンソン病 (PD) における言語障害は、診断の重要な初期指標となります。
音声ベースの PD 検出モデルは優れたパフォーマンスを示していますが、その解釈可能性は依然として十分に解明されていません。
この研究は、PDの診断とモニタリングにおける臨床意思決定のための正確で解釈可能なモデルの開発をサポートすることを目的として、PD特有の音声特徴を特定するためのいくつかの説明可能性手法を体系的に評価しています。
私たちの方法論には、(i) 主流の解釈可能性技術を使用して属性と顕著性マップを取得すること、(ii) これらのマップの忠実性と、確立された一連の指標を使用して結合および交差によって得られるそれらの組み合わせを定量的に評価すること、および (iii) によって伝達される情報を評価することが含まれます。
補助分類器からの PD 検出用の顕著性マップ。
私たちの結果から、説明は分類子と一致しているものの、多くの場合、ドメインの専門家にとって貴重な情報を提供できないことが明らかになりました。

要約(オリジナル)

Speech impairments in Parkinson’s disease (PD) provide significant early indicators for diagnosis. While models for speech-based PD detection have shown strong performance, their interpretability remains underexplored. This study systematically evaluates several explainability methods to identify PD-specific speech features, aiming to support the development of accurate, interpretable models for clinical decision-making in PD diagnosis and monitoring. Our methodology involves (i) obtaining attributions and saliency maps using mainstream interpretability techniques, (ii) quantitatively evaluating the faithfulness of these maps and their combinations obtained via union and intersection through a range of established metrics, and (iii) assessing the information conveyed by the saliency maps for PD detection from an auxiliary classifier. Our results reveal that, while explanations are aligned with the classifier, they often fail to provide valuable information for domain experts.

arxiv情報

著者 Eleonora Mancini,Francesco Paissan,Paolo Torroni,Mirco Ravanelli,Cem Subakan
発行日 2024-11-13 13:36:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.SD, eess.AS パーマリンク