要約
タイトル:SHAPとLIMEに関する解釈可能人工知能方法に関する解説
要約:
– 解釈可能な人工知能(XAI)方法は、機械学習モデルのブラックボックスをもっと分かりやすい形に変換することで現れた。
– これらの方法は、モデルがどのように機能するかを伝えるのに役立ち、機械学習モデルの透明性を高め、エンドユーザーの信頼を増やすことを目指す。
– SHapley Additive explanations(SHAP)とLocal Interpretable Model Agnostic Explanation(LIME)は、特に表形式のデータで広く使用されているXAI方法である。
– この論文では、これらの2つの方法の解釈可能性メトリックがどのように生成されるかを議論し、出力を解釈するための枠組みを提案し、弱点と強みを強調する。
要約(オリジナル)
eXplainable artificial intelligence (XAI) methods have emerged to convert the black box of machine learning models into a more digestible form. These methods help to communicate how the model works with the aim of making machine learning models more transparent and increasing the trust of end-users into their output. SHapley Additive exPlanations (SHAP) and Local Interpretable Model Agnostic Explanation (LIME) are two widely used XAI methods particularly with tabular data. In this commentary piece, we discuss the way the explainability metrics of these two methods are generated and propose a framework for interpretation of their outputs, highlighting their weaknesses and strengths.
arxiv情報
著者 | Ahmed Salih,Zahra Raisi-Estabragh,Ilaria Boscolo Galazzo,Petia Radeva,Steffen E. Petersen,Gloria Menegaz,Karim Lekadir |
発行日 | 2023-05-03 10:04:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI