An empirical study of the effect of background data size on the stability of SHapley Additive exPlanations (SHAP) for deep learning models

要約

タイトル:深層学習モデルにおけるSHAPの安定性に与えるバックグラウンドデータサイズの影響の実証的研究

要約:

– 機械学習モデルの推論過程の解釈性は、その精度同様に重要である。
– 決定木のような一部のモデルは、人間が直接理解できる内在的な解釈性を持っている。一方、Artificial Neural Networks (ANN)などのモデルは、外部の方法を使用して推論メカニズムを明らかにする必要がある。
– SHapley Additive exPlanations (SHAP)は、ANNを解釈するためにバックグラウンドデータセットを必要とする外部の方法の1つである。
– 通常、バックグラウンドデータセットはトレーニングデータセットからランダムにサンプリングされたインスタンスで構成される。しかし、サンプリングサイズとそれがSHAPに与える影響は未だに未解明である。
– 本実証研究では、MIMIC-IIIデータセットを用いて、ランダムサンプリングから得られた異なるバックグラウンドデータセットを使用すると、SHAP値と変数のランキングという2つの核心の説明が変動することが示された。これは、ユーザーがSHAPの一回の解釈結果を問答無用で信頼できないことを意味する。
– 幸いなことに、バックグラウンドデータセットのサイズが増えるにつれ、このような変動が減少することが示された。
– SHAP変数のランキングの安定性評価にはU字型があり、最も重要な変数と最も重要でない変数に比べて、中程度に重要な変数のランキングはより信頼性が低いことが示された。
– 全体として、本研究の結果は、ユーザーがSHAP結果に影響を与えるバックグラウンドデータを考慮する必要があることを示し、バックグラウンドサンプルサイズの増加に伴う向上したSHAPの安定性を表している。

要約(オリジナル)

Nowadays, the interpretation of why a machine learning (ML) model makes certain inferences is as crucial as the accuracy of such inferences. Some ML models like the decision tree possess inherent interpretability that can be directly comprehended by humans. Others like artificial neural networks (ANN), however, rely on external methods to uncover the deduction mechanism. SHapley Additive exPlanations (SHAP) is one of such external methods, which requires a background dataset when interpreting ANNs. Generally, a background dataset consists of instances randomly sampled from the training dataset. However, the sampling size and its effect on SHAP remain to be unexplored. In our empirical study on the MIMIC-III dataset, we show that the two core explanations – SHAP values and variable rankings fluctuate when using different background datasets acquired from random sampling, indicating that users cannot unquestioningly trust the one-shot interpretation from SHAP. Luckily, such fluctuation decreases with the increase of the background dataset size. Also, we notice an U-shape in the stability assessment of SHAP variable rankings, demonstrating that SHAP is more reliable in ranking the most and least important variables compared to moderately important ones. Overall, our results suggest that users should take into account how background data affects SHAP results, with improved SHAP stability as the background sample size increases.

arxiv情報

著者 Han Yuan,Mingxuan Liu,Lican Kang,Chenkui Miao,Ying Wu
発行日 2023-04-09 05:48:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.LG パーマリンク