Explainability as statistical inference

要約

近年、さまざまなモデル説明アプローチが提案されていますが、それらはすべて非常に異なる理論的根拠とヒューリスティックに基づいています。
この論文では、新しいルートをとり、解釈可能性を統計的推論問題として取り上げます。
解釈可能な予測を生成するように設計された一般的な深層確率モデルを提案します。
モデル パラメーターは最尤法によって学習でき、この方法はあらゆる予測ネットワーク アーキテクチャおよびあらゆる種類の予測問題に適応できます。
私たちの方法は、償却された解釈可能性モデルのケースであり、ニューラル ネットワークがセレクターとして使用され、推論時の高速な解釈を可能にします。
いくつかの一般的な解釈可能性手法は、一般モデルの正規化された最尤の特定のケースであることが示されています。
私たちは、特徴重要度マップの評価を可能にするグラウンドトゥルース選択を備えた新しいデータセットを提案します。
これらのデータセットを使用して、複数の代入を使用するとより合理的な解釈が得られることを実験的に示します。

要約(オリジナル)

A wide variety of model explanation approaches have been proposed in recent years, all guided by very different rationales and heuristics. In this paper, we take a new route and cast interpretability as a statistical inference problem. We propose a general deep probabilistic model designed to produce interpretable predictions. The model parameters can be learned via maximum likelihood, and the method can be adapted to any predictor network architecture and any type of prediction problem. Our method is a case of amortized interpretability models, where a neural network is used as a selector to allow for fast interpretation at inference time. Several popular interpretability methods are shown to be particular cases of regularised maximum likelihood for our general model. We propose new datasets with ground truth selection which allow for the evaluation of the features importance map. Using these datasets, we show experimentally that using multiple imputation provides more reasonable interpretations.

arxiv情報

著者 Hugo Henri Joseph Senetaire,Damien Garreau,Jes Frellsen,Pierre-Alexandre Mattei
発行日 2023-12-22 13:23:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ME パーマリンク