Estimation of Concept Explanations Should be Uncertainty Aware

要約

モデルの説明は、予測モデルの解釈とデバッグに非常に役立ちます。
私たちは概念説明と呼ばれる特定の種類のグローバル説明を研究します。その目的は、人間が理解できる概念を使用してモデルを解釈することです。
マルチモーダル学習の最近の進歩により、概念の説明に対する関心が再燃し、ラベル効率の高い推定の提案がいくつか生まれました。
しかし、既存の推定方法は、説明の計算に使用される概念やデータセットの選択に対して不安定です。
説明の不安定性は、重要度スコアの点推定におけるばらつきが大きいことが原因であることがわかります。
我々は、概念説明の信頼性を容易に向上させる、不確実性を考慮したベイズ推定法を提案します。
私たちは、理論的分析と経験的評価によって、私たちの方法によって計算された説明がより信頼性があり、同時にラベル効率が高く忠実であることを実証します。

要約(オリジナル)

Model explanations are very valuable for interpreting and debugging prediction models. We study a specific kind of global explanations called Concept Explanations, where the goal is to interpret a model using human-understandable concepts. Recent advances in multi-modal learning rekindled interest in concept explanations and led to several label-efficient proposals for estimation. However, existing estimation methods are unstable to the choice of concepts or dataset that is used for computing explanations. We observe that instability in explanations is due to high variance in point estimation of importance scores. We propose an uncertainty aware Bayesian estimation method, which readily improved reliability of the concept explanations. We demonstrate with theoretical analysis and empirical evaluation that explanations computed by our method are more reliable while also being label-efficient and faithful.

arxiv情報

著者 Vihari Piratla,Juyeon Heo,Sukriti Singh,Adrian Weller
発行日 2023-12-13 11:17:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク