要約
機械学習 (ML) モデルのブラック ボックスをより理解しやすい形式に変換する、説明可能な人工知能 (XAI) 手法が登場しました。
これらのメソッドは、ML モデルの透明性を高め、その出力に対するエンドユーザーの信頼を高めることを目的として、モデルがどのように機能するかを伝えるのに役立ちます。
SHapley Additive exPlanations (SHAP) と Local Interpretable Model Agnostic Description (LIME) は、特に表形式のデータで広く使用されている 2 つの XAI メソッドです。
この視点記事では、これら 2 つの手法の説明可能性メトリクスが生成される方法について説明し、その出力を解釈するためのフレームワークを提案し、それらの弱点と強みを強調します。
具体的には、生物医学領域 (心筋梗塞の有無の個人の分類) のケーススタディに基づいて、モデル依存性と特徴間の共線性の存在という観点から、その結果について議論します。
結果は、SHAP と LIME が採用された ML モデルと特徴の共線性によって大きく影響されることを示しており、その使用法と解釈には注意が必要です。
要約(オリジナル)
eXplainable artificial intelligence (XAI) methods have emerged to convert the black box of machine learning (ML) models into a more digestible form. These methods help to communicate how the model works with the aim of making ML models more transparent and increasing the trust of end-users into their output. SHapley Additive exPlanations (SHAP) and Local Interpretable Model Agnostic Explanation (LIME) are two widely used XAI methods, particularly with tabular data. In this perspective piece, we discuss the way the explainability metrics of these two methods are generated and propose a framework for interpretation of their outputs, highlighting their weaknesses and strengths. Specifically, we discuss their outcomes in terms of model-dependency and in the presence of collinearity among the features, relying on a case study from the biomedical domain (classification of individuals with or without myocardial infarction). The results indicate that SHAP and LIME are highly affected by the adopted ML model and feature collinearity, raising a note of caution on their usage and interpretation.
arxiv情報
著者 | Ahmed Salih,Zahra Raisi-Estabragh,Ilaria Boscolo Galazzo,Petia Radeva,Steffen E. Petersen,Gloria Menegaz,Karim Lekadir |
発行日 | 2024-06-17 15:15:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google