Energy-Based Concept Bottleneck Models: Unifying Prediction, Concept Intervention, and Probabilistic Interpretations

要約

コンセプトボトルネックモデル(CBM)などの既存の手法は、ブラックボックス深層学習モデルにコンセプトベースの解釈を提供することに成功しています。
これらは通常、入力を与えられた概念を予測し、予測された概念を与えられた最終的なクラス ラベルを予測することによって機能します。
ただし、(1) 多くの場合、概念間の高次の非線形相互作用を捉えることができません。たとえば、予測された概念 (例: 「黄色い胸」) を修正しても、相関性の高い概念 (例: 「黄色い腹」) を修正するのには役立ちません。
最終的な精度が最適以下になる可能性があります。
(2) 異なる概念とクラス ラベルの間の複雑な条件付き依存関係を自然に定量化することはできません (たとえば、クラス ラベルが「ケンタッキームシクイ」と概念が「黒くちばし」を持つ画像の場合、モデルが別の概念を正しく予測する確率はどれくらいですか)
「ブラック クラウン」)、したがって、ブラック ボックス モデルがどのように機能するかについてのより深い洞察を提供できません。
これらの制限に対応して、私たちはエネルギーベースのコンセプトボトルネックモデル (ECBM) を提案します。
私たちの ECBM は、一連のニューラル ネットワークを使用して、候補 (入力、概念、クラス) タプルの結合エネルギーを定義します。
このような統一インターフェイスを使用すると、予測、概念の修正、および条件付き依存の定量化が、さまざまなエネルギー関数を合成することによって生成される条件付き確率として表現されます。
当社の ECBM は、既存の CBM の両方の制限に対処し、より高い精度とより豊富な概念解釈を提供します。
経験的な結果は、私たちのアプローチが現実世界のデータセットに対する最先端のアプローチよりも優れていることを示しています。

要約(オリジナル)

Existing methods, such as concept bottleneck models (CBMs), have been successful in providing concept-based interpretations for black-box deep learning models. They typically work by predicting concepts given the input and then predicting the final class label given the predicted concepts. However, (1) they often fail to capture the high-order, nonlinear interaction between concepts, e.g., correcting a predicted concept (e.g., ‘yellow breast’) does not help correct highly correlated concepts (e.g., ‘yellow belly’), leading to suboptimal final accuracy; (2) they cannot naturally quantify the complex conditional dependencies between different concepts and class labels (e.g., for an image with the class label ‘Kentucky Warbler’ and a concept ‘black bill’, what is the probability that the model correctly predicts another concept ‘black crown’), therefore failing to provide deeper insight into how a black-box model works. In response to these limitations, we propose Energy-based Concept Bottleneck Models (ECBMs). Our ECBMs use a set of neural networks to define the joint energy of candidate (input, concept, class) tuples. With such a unified interface, prediction, concept correction, and conditional dependency quantification are then represented as conditional probabilities, which are generated by composing different energy functions. Our ECBMs address both limitations of existing CBMs, providing higher accuracy and richer concept interpretations. Empirical results show that our approach outperforms the state-of-the-art on real-world datasets.

arxiv情報

著者 Xinyue Xu,Yi Qin,Lu Mi,Hao Wang,Xiaomeng Li
発行日 2024-02-26 11:33:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, stat.ML パーマリンク