Probabilistic Concept Bottleneck Models

要約

解釈可能なモデルとは、人間が解釈可能な方法で意思決定を行うように設計されたものである。代表的なものとして、概念ボトルネックモデル(CBM)があり、概念予測と予測された概念に基づくクラス予測の2段階を踏む。CBMは、概念予測から導かれる上位概念で説明を行うため、信頼性の高い概念予測が信頼性にとって重要である。本研究では、信頼性を害する可能性のある曖昧性の問題に取り組む。データ上では概念の存在が曖昧であることが多いが、CBMはこの曖昧さを考慮せずに決定論的に概念を予測する。この曖昧さに対して信頼性の高い解釈を提供するために、我々は確率的概念ボトルネックモデル(ProbCBM)を提案する。確率的概念埋め込みを活用することで、ProbCBMは概念予測における不確実性をモデル化し、概念とそれに対応する不確実性に基づいて説明を提供する。この不確実性により、説明の信頼性が高まります。さらに、ProbCBMではクラスの不確実性が概念の不確実性から導かれるため、概念の不確実性を用いてクラスの不確実性を説明することができる。コードは https://github.com/ejkim47/prob-cbm で公開されている。

要約(オリジナル)

Interpretable models are designed to make decisions in a human-interpretable manner. Representatively, Concept Bottleneck Models (CBM) follow a two-step process of concept prediction and class prediction based on the predicted concepts. CBM provides explanations with high-level concepts derived from concept predictions; thus, reliable concept predictions are important for trustworthiness. In this study, we address the ambiguity issue that can harm reliability. While the existence of a concept can often be ambiguous in the data, CBM predicts concepts deterministically without considering this ambiguity. To provide a reliable interpretation against this ambiguity, we propose Probabilistic Concept Bottleneck Models (ProbCBM). By leveraging probabilistic concept embeddings, ProbCBM models uncertainty in concept prediction and provides explanations based on the concept and its corresponding uncertainty. This uncertainty enhances the reliability of the explanations. Furthermore, as class uncertainty is derived from concept uncertainty in ProbCBM, we can explain class uncertainty by means of concept uncertainty. Code is publicly available at https://github.com/ejkim47/prob-cbm.

arxiv情報

著者 Eunji Kim,Dahuin Jung,Sangha Park,Siwon Kim,Sungroh Yoon
発行日 2023-06-02 14:38:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク