Explainable AI with counterfactual paths

要約

Explainable AI (XAI) は、機械学習におけるますます重要な研究分野となっており、原理的にはブラックボックス モデルを透明かつ解釈可能にすることを目的としています。
この論文では、条件付き置換によって生成された反事実パスを使用する、XAI への新しいアプローチを提案します。
私たちの手法は、異なる結果をもたらした可能性のある代替経路を特定することにより、反事実的な説明を提供します。
提案された方法は、ナレッジ グラフ内の反事実パスに基づいて説明を生成するのに特に適しています。
ナレッジ グラフ内の入力データに対する仮説的な変更を調べることで、モデルの動作を系統的に検証し、モデルの予測にとって最も重要な特徴または特徴の組み合わせを調べることができます。
私たちのアプローチは、従来の特徴重み付け方法よりもモデルの動作についてより直観的で解釈可能な説明を提供し、モデル内のバイアスを特定して軽減するのに役立ちます。

要約(オリジナル)

Explainable AI (XAI) is an increasingly important area of research in machine learning, which in principle aims to make black-box models transparent and interpretable. In this paper, we propose a novel approach to XAI that uses counterfactual paths generated by conditional permutations. Our method provides counterfactual explanations by identifying alternative paths that could have led to different outcomes. The proposed method is particularly suitable for generating explanations based on counterfactual paths in knowledge graphs. By examining hypothetical changes to the input data in the knowledge graph, we can systematically validate the behaviour of the model and examine the features or combination of features that are most important to the model’s predictions. Our approach provides a more intuitive and interpretable explanation for the model’s behaviour than traditional feature weighting methods and can help identify and mitigate biases in the model.

arxiv情報

著者 Bastian Pfeifer,Mateusz Krzyzinski,Hubert Baniecki,Anna Saranti,Andreas Holzinger,Przemyslaw Biecek
発行日 2023-07-24 13:00:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク