A comprehensive study on fidelity metrics for XAI

要約

eXplainable Artificial Intelligence (XAI) システムの使用により、解決が必要な一連の課題が生じています。
ここでは、この分野で未解決の疑問である XAI メソッドを正しく選択する方法に焦点を当てます。
このタスクの本質的な難しさは、根拠となる真実が欠如していることにあります。
何人かの著者が、さまざまな XAI メソッドの忠実度を近似するためのメトリクスを提案しています。
これらの指標には検証が不足しており、懸念すべき意見の相違があります。
この研究では、よく知られた透過的なモデル、つまりデシジョン ツリーを使用して、忠実度メトリクスを検証するための新しい方法論を提案しました。
このモデルにより、完全に忠実な説明を得ることができました。
私たちの提案は、これらの指標の最初の客観的なベンチマークを構成し、既存の提案との比較を容易にし、既存の方法を超えています。
私たちはベンチマークを適用して 2 つの異なる実験で既存の忠実度メトリクスを評価しました。それぞれの実験では 52,000 枚の画像で構成される公開データセットを使用しました。
これらのデータセットの画像のサイズは 128 x 128 ピクセルで、トレーニング プロセスを簡素化する合成データでした。
すべてのメトリクス値は忠実度の欠如を示しており、最良のメトリクス値では、完璧な説明として期待値から 30 \% の偏差が示されています。
私たちの実験の結果、現在の忠実度メトリクスは実際のシナリオで使用できるほど信頼性が低いという結論に至りました。
この発見から、検出された問題を回避するには新しい指標を開発する必要があると判断し、これらの制限に対処するための科学コミュニティ内のベンチマークとして私たちの提案を使用することを推奨します。

要約(オリジナル)

The use of eXplainable Artificial Intelligence (XAI) systems has introduced a set of challenges that need resolution. Herein, we focus on how to correctly select an XAI method, an open questions within the field. The inherent difficulty of this task is due to the lack of a ground truth. Several authors have proposed metrics to approximate the fidelity of different XAI methods. These metrics lack verification and have concerning disagreements. In this study, we proposed a novel methodology to verify fidelity metrics, using a well-known transparent model, namely a decision tree. This model allowed us to obtain explanations with perfect fidelity. Our proposal constitutes the first objective benchmark for these metrics, facilitating a comparison of existing proposals, and surpassing existing methods. We applied our benchmark to assess the existing fidelity metrics in two different experiments, each using public datasets comprising 52,000 images. The images from these datasets had a size a 128 by 128 pixels and were synthetic data that simplified the training process. All metric values, indicated a lack of fidelity, with the best one showing a 30 \% deviation from the expected values for perfect explanation. Our experimentation led us to conclude that the current fidelity metrics are not reliable enough to be used in real scenarios. From this finding, we deemed it necessary to development new metrics, to avoid the detected problems, and we recommend the usage of our proposal as a benchmark within the scientific community to address these limitations.

arxiv情報

著者 Miquel Miró-Nicolau,Antoni Jaume-i-Capó,Gabriel Moyà-Alcover
発行日 2024-01-19 11:35:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク