Exploring Local Explanations of Nonlinear Models Using Animated Linear Projections

要約

機械学習モデルの予測力の向上には、特にパラメトリック統計モデルと比較した場合、複雑さの増大と解釈可能性の喪失という代償が伴います。
このトレードオフにより、モデルが予測値を使用して予測に到達する方法を明らかにする、局所説明 (LE) や局所変数属性 (LVA) などの手法を提供する eXplainable AI (XAI) が登場しました。
これらは、単一の観測値の近傍における線形変数の重要度の点推定を提供します。
ただし、LVA は予測変数間の関連性を効果的に処理できない傾向があります。
予測変数間の相互作用が変数重要度の推定にどのような影響を与えるかを理解するには、LVA を線形投影に変換し、放射状ツアーを使用します。
これは、モデルがどのように間違いを犯したか、外れ値の影響、または観測値のクラスタリングを学習するのにも役立ちます。
このアプローチは、カテゴリ (ペンギンの種類、チョコレートの種類) および定量的 (サッカー/フットボールの給与、住宅価格) の応答モデルの例を使用して説明されています。
これらのメソッドは、CRAN で入手可能な R パッケージ cheem に実装されています。

要約(オリジナル)

The increased predictive power of machine learning models comes at the cost of increased complexity and loss of interpretability, particularly in comparison to parametric statistical models. This trade-off has led to the emergence of eXplainable AI (XAI) which provides methods, such as local explanations (LEs) and local variable attributions (LVAs), to shed light on how a model use predictors to arrive at a prediction. These provide a point estimate of the linear variable importance in the vicinity of a single observation. However, LVAs tend not to effectively handle association between predictors. To understand how the interaction between predictors affects the variable importance estimate, we can convert LVAs into linear projections and use the radial tour. This is also useful for learning how a model has made a mistake, or the effect of outliers, or the clustering of observations. The approach is illustrated with examples from categorical (penguin species, chocolate types) and quantitative (soccer/football salaries, house prices) response models. The methods are implemented in the R package cheem, available on CRAN.

arxiv情報

著者 Nicholas Spyrison,Dianne Cook,Przemyslaw Biecek
発行日 2023-06-09 16:44:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク