Calibrated Explanations for Regression

要約

人工知能(AI)は、しばしば現代の意思決定支援システム(DSS)に不可欠な要素である。AIベースのDSSで使用される最高性能の予測モデルは、透明性に欠ける。説明可能な人工知能(XAI)は、その根拠を人間のユーザーに説明できるAIシステムの構築を目指している。XAIにおける局所的な説明は、特徴の重要性という観点から、個々の予測の原因に関する情報を提供することができる。しかし、既存の局所説明手法の重大な欠点は、特徴の重要性に関連する不確実性を定量化できないことである。本稿では、従来は分類のみをサポートしていた特徴重要度説明手法であるCalibrated Explanations (CE)を、標準回帰と確率的回帰、すなわち、ターゲットが任意の閾値以上である確率をサポートするように拡張したものを紹介する。回帰のための拡張は、信頼区間による基礎モデルからの予測の較正、特徴の重要性の不確実性の定量化など、CEのすべての利点を保持し、事実と反事実の両方の説明を可能にします。標準回帰のCEは,高速で,信頼性が高く,安定した,ロバストな説明を提供する.確率的回帰のためのCEは、任意の通常の回帰モデルから、閾値を動的に選択して、確率的説明を作成するまったく新しい方法を提供します。安定性とスピードに関する確率的回帰のためのCEの性能は、LIMEに匹敵する。この手法は、簡単に理解できる条件付きルールでモデルにとらわれない。Pythonでの実装はGitHubで自由に利用可能であり、pipを使ってインストールすることができる。

要約(オリジナル)

Artificial Intelligence (AI) is often an integral part of modern decision support systems (DSSs). The best-performing predictive models used in AI-based DSSs lack transparency. Explainable Artificial Intelligence (XAI) aims to create AI systems that can explain their rationale to human users. Local explanations in XAI can provide information about the causes of individual predictions in terms of feature importance. However, a critical drawback of existing local explanation methods is their inability to quantify the uncertainty associated with a feature’s importance. This paper introduces an extension of a feature importance explanation method, Calibrated Explanations (CE), previously only supporting classification, with support for standard regression and probabilistic regression, i.e., the probability that the target is above an arbitrary threshold. The extension for regression keeps all the benefits of CE, such as calibration of the prediction from the underlying model with confidence intervals, uncertainty quantification of feature importance, and allows both factual and counterfactual explanations. CE for standard regression provides fast, reliable, stable, and robust explanations. CE for probabilistic regression provides an entirely new way of creating probabilistic explanations from any ordinary regression model and with a dynamic selection of thresholds. The performance of CE for probabilistic regression regarding stability and speed is comparable to LIME. The method is model agnostic with easily understood conditional rules. An implementation in Python is freely available on GitHub and for installation using pip making the results in this paper easily replicable.

arxiv情報

著者 Tuwe Löfström,Helena Löfström,Ulf Johansson,Cecilia Sönströd,Rudy Matela
発行日 2023-09-01 05:16:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: 68-04, 68W99, cs.AI, cs.LG, stat.ML パーマリンク