Explaining Predictive Uncertainty with Information Theoretic Shapley Values

要約

説明可能な人工知能の研究者は、ユーザーが複雑な教師あり学習モデルの予測を理解できるようにするための多数の方法を開発してきました。
対照的に、モデル出力の $\textit{不確実性}$ の説明は比較的注目されていません。
一般的な Shapley 値フレームワークを適応させて、さまざまなタイプの予測不確実性を説明し、個々のモデル出力の条件付きエントロピーに対する各特徴の寄与を定量化します。
私たちは特性関数が変更されたゲームを検討し、結果として得られるシャプレー値と、情報理論および条件付き独立性テストから得られる基本量との間の深い関係を発見します。
証明可能な保証を備えた有限サンプル誤り率制御のための推論手順の概要を説明し、実際のデータとシミュレートされたデータに対するさまざまな実験で良好に機能する効率的なアルゴリズムを実装します。
私たちの方法には、共変量シフト検出、能動学習、特徴選択、および能動的特徴量取得への応用があります。

要約(オリジナル)

Researchers in explainable artificial intelligence have developed numerous methods for helping users understand the predictions of complex supervised learning models. By contrast, explaining the $\textit{uncertainty}$ of model outputs has received relatively little attention. We adapt the popular Shapley value framework to explain various types of predictive uncertainty, quantifying each feature’s contribution to the conditional entropy of individual model outputs. We consider games with modified characteristic functions and find deep connections between the resulting Shapley values and fundamental quantities from information theory and conditional independence testing. We outline inference procedures for finite sample error rate control with provable guarantees, and implement efficient algorithms that perform well in a range of experiments on real and simulated data. Our method has applications to covariate shift detection, active learning, feature selection, and active feature-value acquisition.

arxiv情報

著者 David S. Watson,Joshua O’Hara,Niek Tax,Richard Mudd,Ido Guy
発行日 2023-10-31 17:15:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク