Graph Edits for Counterfactual Explanations: A comparative study

要約

反事実は、一連の最小限の編集を利用して分類器の予測を変更する一般的な説明可能性手法として確立されています。
画像上の概念的な反事実を考慮する場合、要求される編集は入力データに存在する顕著な概念に対応する必要があります。
同時に、概念的な距離がナレッジ グラフによって定義され、概念的な編集の最適性が保証されます。
この研究では、教師ありグラフ ニューラル ネットワーク (GNN) アプローチと教師なしグラフ ニューラル ネットワーク (GNN) アプローチの両方を包含する比較研究を実施することで、反事実の説明としてのグラフ編集に関するこれまでの取り組みを拡張します。
この目的を達成するために、次の重要な研究課題を提起します。入力データをグラフとして表現すべきでしょうか。ブラック ボックス画像分類器に対して最小限で意味のある反事実的な説明を生成するには、パフォーマンスと時間効率の観点から最適な GNN アプローチはどれでしょうか?

要約(オリジナル)

Counterfactuals have been established as a popular explainability technique which leverages a set of minimal edits to alter the prediction of a classifier. When considering conceptual counterfactuals on images, the edits requested should correspond to salient concepts present in the input data. At the same time, conceptual distances are defined by knowledge graphs, ensuring the optimality of conceptual edits. In this work, we extend previous endeavors on graph edits as counterfactual explanations by conducting a comparative study which encompasses both supervised and unsupervised Graph Neural Network (GNN) approaches. To this end, we pose the following significant research question: should we represent input data as graphs, which is the optimal GNN approach in terms of performance and time efficiency to generate minimal and meaningful counterfactual explanations for black-box image classifiers?

arxiv情報

著者 Angeliki Dimitriou,Nikolaos Chaidos,Maria Lymperaiou,Giorgos Stamou
発行日 2024-04-18 14:29:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク