要約
最も一般的に使用される非線形機械学習方法は、人間にとって解釈できないクローズドボックスモデルです。
説明可能な人工知能(XAI)の分野は、これらの閉じたボックスの内部の仕組みを調べるためのツールを開発することを目指しています。
XAIに対する頻繁に使用されるモデルに依存しないアプローチには、局所近似として単純なモデルを使用して、いわゆる局所的な説明を生成することが含まれます。
このアプローチの例には、石灰、整形、スリセマップが含まれます。
このペーパーでは、大規模な一連のローカル説明を、単純なモデルの小さな「プロキシセット」にどのように削減できるかを示しています。これは、生成的なグローバルな説明として機能する可能性があります。
説明されたこの削減手順は、最適化の問題として定式化することができ、貪欲なヒューリスティックを使用して効率的に近似することができます。
要約(オリジナル)
Most commonly used non-linear machine learning methods are closed-box models, uninterpretable to humans. The field of explainable artificial intelligence (XAI) aims to develop tools to examine the inner workings of these closed boxes. An often-used model-agnostic approach to XAI involves using simple models as local approximations to produce so-called local explanations; examples of this approach include LIME, SHAP, and SLISEMAP. This paper shows how a large set of local explanations can be reduced to a small ‘proxy set’ of simple models, which can act as a generative global explanation. This reduction procedure, ExplainReduce, can be formulated as an optimisation problem and approximated efficiently using greedy heuristics.
arxiv情報
著者 | Lauri Seppäläinen,Mudong Guo,Kai Puolamäki |
発行日 | 2025-02-14 17:14:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google