要約
ヘルスケア向けの認定済み人工知能 (AI) ツールが最近急増したことで、このテクノロジーの採用に関する議論が新たになりました。
そのような議論の 1 つのスレッドは、Explainable AI (XAI) と、AI デバイスをより透明で信頼できるものにするという XAI の約束に関するものです。
医療 AI 分野で活発に活動している少数の声は、Explainable AI 技術の信頼性、特に特徴の帰属方法に懸念を表明し、それらの使用とガイドラインや標準への組み込みに疑問を呈しています。
正当な懸念にもかかわらず、事後の局所的な説明可能性の方法の実行可能性に関する既存の批判は、画像データに固有の問題を一般化することによって、赤ちゃんを風呂の水で捨てると主張します。
まず、説明と人間の理解との間の意味的な一致の欠如として問題を特徴付けることから始めます。
機能の重要度を確実に使用できる状況を理解するために、低レベルの機能と高レベルの機能の機能の重要度を区別することを紹介します。
電子医療記録 (EHR) のような表形式のデータなど、低レベルの機能に明確なセマンティクスが付与されているデータ型の場合、セマンティック マッチを取得できるため、機能の帰属方法を有意義で有用な方法で引き続き使用できると主張します。
道。
最後に、セマンティック マッチが達成されたかどうかをテストする手順をスケッチします。
要約(オリジナル)
The recent spike in certified Artificial Intelligence (AI) tools for healthcare has renewed the debate around adoption of this technology. One thread of such debate concerns Explainable AI (XAI) and its promise to render AI devices more transparent and trustworthy. A few voices active in the medical AI space have expressed concerns on the reliability of Explainable AI techniques and especially feature attribution methods, questioning their use and inclusion in guidelines and standards. Despite valid concerns, we argue that existing criticism on the viability of post-hoc local explainability methods throws away the baby with the bathwater by generalizing a problem that is specific to image data. We begin by characterizing the problem as a lack of semantic match between explanations and human understanding. To understand when feature importance can be used reliably, we introduce a distinction between feature importance of low- and high-level features. We argue that for data types where low-level features come endowed with a clear semantics, such as tabular data like Electronic Health Records (EHRs), semantic match can be obtained, and thus feature attribution methods can still be employed in a meaningful and useful way. Finally, we sketch a procedure to test whether semantic match has been achieved.
arxiv情報
著者 | Giovanni Cinà,Tabea E. Röber,Rob Goedhart,Ş. İlker Birbil |
発行日 | 2023-02-24 16:42:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google