The Meta-Evaluation Problem in Explainable AI: Identifying Reliable Estimators with MetaQuantus

要約

Explainable AI (XAI) の分野における未解決の課題の 1 つは、グラウンド トゥルースの説明ラベルがない場合に、説明方法の品質を最も信頼性高く推定する方法を決定することです。
説明方法の同じ特性を測定することを目的とした競合する評価方法 (または「品質推定器」) によって生成される評価結果は、しばしば矛盾するランキングを提示するため、この問題を解決することは最も重要です。
このような意見の相違は、実務者にとって解釈が難しくなり、最も効果的な説明方法を選択する能力を複雑にする可能性があります。
私たちは、XAI のさまざまな品質推定量のメタ評価を通じてこの問題に対処します。これを「評価方法を評価するプロセス」と定義します。
私たちの新しいフレームワークである MetaQuantus は、品質推定器の 2 つの相補的なパフォーマンス特性、つまりノイズに対する耐性とランダム性に対する反応性を分析し、グラウンド トゥルース ラベルの必要性を回避します。
品質推定量の選択やハイパーパラメータの最適化など、XAI におけるさまざまな未解決の質問を対象とした一連の実験を通じて、フレームワークの有効性を実証します。
私たちの成果はオープンソース ライセンス (https://github.com/annahedstroem/MetaQuantus) に基づいてリリースされており、XAI および機械学習 (ML) の実践者が特定の環境で新しく構築された品質推定器を検証およびベンチマークするための開発ツールとして機能します。
説明可能性のコンテキスト。
この取り組みにより、私たちは信頼できる評価方法を特定するための明確で理論に基づいたガイダンスをコミュニティに提供し、現場での再現性を促進します。

要約(オリジナル)

One of the unsolved challenges in the field of Explainable AI (XAI) is determining how to most reliably estimate the quality of an explanation method in the absence of ground truth explanation labels. Resolving this issue is of utmost importance as the evaluation outcomes generated by competing evaluation methods (or ”quality estimators”), which aim at measuring the same property of an explanation method, frequently present conflicting rankings. Such disagreements can be challenging for practitioners to interpret, thereby complicating their ability to select the best-performing explanation method. We address this problem through a meta-evaluation of different quality estimators in XAI, which we define as ”the process of evaluating the evaluation method”. Our novel framework, MetaQuantus, analyses two complementary performance characteristics of a quality estimator: its resilience to noise and reactivity to randomness, thus circumventing the need for ground truth labels. We demonstrate the effectiveness of our framework through a series of experiments, targeting various open questions in XAI such as the selection and hyperparameter optimisation of quality estimators. Our work is released under an open-source license (https://github.com/annahedstroem/MetaQuantus) to serve as a development tool for XAI- and Machine Learning (ML) practitioners to verify and benchmark newly constructed quality estimators in a given explainability context. With this work, we provide the community with clear and theoretically-grounded guidance for identifying reliable evaluation methods, thus facilitating reproducibility in the field.

arxiv情報

著者 Anna Hedström,Philine Bommer,Kristoffer K. Wickstrøm,Wojciech Samek,Sebastian Lapuschkin,Marina M. -C. Höhne
発行日 2023-07-19 12:18:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク