要約
説明可能な人工知能 (XAI) では、いくつかの反事実説明子が提案されており、それぞれが反事実インスタンスの望ましい特性 (最小性、実行可能性、安定性、多様性、もっともらしさ、識別力) に焦点を当てています。
私たちは、そのような特性のサブセットのみを提供する弱い説明子を、それらすべてをカバーする強力な方法に高める、反事実的な説明子のアンサンブルを提案します。
アンサンブルは、インスタンスと機能のサンプルに対して弱いエクスプローラーを実行し、多様性に基づく選択関数を利用してその結果を結合します。
この方法はモデルに依存せず、オートエンコーダーに基づくラッピング アプローチを通じて、データにも依存しません。
要約(オリジナル)
In eXplainable Artificial Intelligence (XAI), several counterfactual explainers have been proposed, each focusing on some desirable properties of counterfactual instances: minimality, actionability, stability, diversity, plausibility, discriminative power. We propose an ensemble of counterfactual explainers that boosts weak explainers, which provide only a subset of such properties, to a powerful method covering all of them. The ensemble runs weak explainers on a sample of instances and of features, and it combines their results by exploiting a diversity-driven selection function. The method is model-agnostic and, through a wrapping approach based on autoencoders, it is also data-agnostic.
arxiv情報
著者 | Riccardo Guidotti,Salvatore Ruggieri |
発行日 | 2023-08-29 10:21:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google