要約
Shapley 値はおそらく、協力ゲームでプレイヤーに意味のある貢献値を割り当てるための最も一般的なアプローチであり、最近では説明可能な人工知能で集中的に使用されています。
この意味は、Shapley 値のみが満たす公理的な特性によるものですが、エージェントの数に応じて指数関数的に増加する正確な計算が犠牲になります。
したがって、多くの研究がシャプレー値の効率的な近似に捧げられており、それらのほとんどはエージェントの限界寄与の概念を中心に展開しています。
この論文では、SVARM および Stratified SVARM を使用して、限界寄与の概念から分離された Shapley 値の表現に基づいた、パラメーターフリーでドメインに依存しない 2 つの近似アルゴリズムを提案します。
私たちは、その近似品質に関して比類のない理論的保証を証明し、合成ゲームや最先端の手法と比較した一般的な説明可能性のユースケースを含む経験的結果を提供します。
要約(オリジナル)
The Shapley value is arguably the most popular approach for assigning a meaningful contribution value to players in a cooperative game, which has recently been used intensively in explainable artificial intelligence. The meaningfulness is due to axiomatic properties that only the Shapley value satisfies, which, however, comes at the expense of an exact computation growing exponentially with the number of agents. Accordingly, a number of works are devoted to the efficient approximation of the Shapley values, most of them revolve around the notion of an agent’s marginal contribution. In this paper, we propose with SVARM and Stratified SVARM two parameter-free and domain-independent approximation algorithms based on a representation of the Shapley value detached from the notion of marginal contributions. We prove unmatched theoretical guarantees regarding their approximation quality and provide empirical results including synthetic games as well as common explainability use cases comparing ourselves with state-of-the-art methods.
arxiv情報
著者 | Patrick Kolpaczki,Viktor Bengs,Maximilian Muschalik,Eyke Hüllermeier |
発行日 | 2023-07-14 15:00:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google