Shapley Chains: Extending Shapley Values to Classifier Chains

要約

タイトル:「Shapley Chains:Shapley ValuesをClassifier Chainsに拡張する」

要約:
– Explainable AIモデルに対する注目は高まっているが、多数のアウトプットに対する説明はまだ不十分である。
– Shapley Valuesを使用して、決定に対する機能への貢献を追跡する方法は、個人的かつグローバルな予測を説明するための最もポピュラーな手法の一つである。
– ただし、マルチアウトプットの場合、各アウトプットを別々に考慮することにより、完全な機能説明を提供することができない。
– Shapley Chainsは、ラベルの相互依存関係を説明の設計プロセスに含めることによって、この問題を克服するために提案された。
– Shapley Chainsは、多出力分類において、分類チェーンを使用してShapley Valuesを機能の重要度スコアとして割り当てることにより、これらの機能スコアの直接および間接的な影響を分離する。
– 既存の方法と比較して、このアプローチは、多数の出力分類タスクの予測により完全な機能貢献を説明することを可能にする。
– 出力のチェーン順序に関して、出力の非表示の貢献を分配するメカニズムを提供する。
– さらに、既存のアプローチで見逃されている間接的な機能貢献を明らかにする方法を示す。
– Shapley Chainsは、マルチアウトプットアプリケーションの実際の学習要因を強調し、合成および現実世界のデータセットにおける出力相互依存の情報フローを理解するために役立つ。

要約(オリジナル)

In spite of increased attention on explainable machine learning models, explaining multi-output predictions has not yet been extensively addressed. Methods that use Shapley values to attribute feature contributions to the decision making are one of the most popular approaches to explain local individual and global predictions. By considering each output separately in multi-output tasks, these methods fail to provide complete feature explanations. We propose Shapley Chains to overcome this issue by including label interdependencies in the explanation design process. Shapley Chains assign Shapley values as feature importance scores in multi-output classification using classifier chains, by separating the direct and indirect influence of these feature scores. Compared to existing methods, this approach allows to attribute a more complete feature contribution to the predictions of multi-output classification tasks. We provide a mechanism to distribute the hidden contributions of the outputs with respect to a given chaining order of these outputs. Moreover, we show how our approach can reveal indirect feature contributions missed by existing approaches. Shapley Chains help to emphasize the real learning factors in multi-output applications and allows a better understanding of the flow of information through output interdependencies in synthetic and real-world datasets.

arxiv情報

著者 Célia Wafa Ayad,Thomas Bonnier,Benjamin Bosch,Jesse Read
発行日 2023-03-30 09:19:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク