Semi-supervised counterfactual explanations

要約

機械学習モデルの反事実的説明は、モデルが予測を別の出力またはターゲット出力に変更するような、特徴値への最小限の介入を見つけるために使用されます。
有効な反事実の説明には、可能性のある特徴値が含まれている必要があります。
ここでは、トレーニング データのデータ分布と同じデータ分布にある反事実の説明を生成するという課題に取り組みます。さらに重要なことに、それらはターゲット クラスの分布に属します。
この要件は、反事実検索プロセスに自動エンコーダー再構築損失を組み込むことで対処されています。
分類子の出力動作を自動エンコーダーの潜在空間に接続することで、反事実検索プロセスの速度と結果として生じる反事実説明の解釈可能性がさらに改善されました。
この一連の研究を続けると、自動エンコーダーがクラスタグ付き入力データを使用して半教師付きの方法でトレーニングされると、反事実の説明の解釈可能性がさらに向上することが示されます。
いくつかのデータセットでアプローチを経験的に評価し、いくつかの指標に関してかなりの改善を示しています。

要約(オリジナル)

Counterfactual explanations for machine learning models are used to find minimal interventions to the feature values such that the model changes the prediction to a different output or a target output. A valid counterfactual explanation should have likely feature values. Here, we address the challenge of generating counterfactual explanations that lie in the same data distribution as that of the training data and more importantly, they belong to the target class distribution. This requirement has been addressed through the incorporation of auto-encoder reconstruction loss in the counterfactual search process. Connecting the output behavior of the classifier to the latent space of the auto-encoder has further improved the speed of the counterfactual search process and the interpretability of the resulting counterfactual explanations. Continuing this line of research, we show further improvement in the interpretability of counterfactual explanations when the auto-encoder is trained in a semi-supervised fashion with class tagged input data. We empirically evaluate our approach on several datasets and show considerable improvement in-terms of several metrics.

arxiv情報

著者 Shravan Kumar Sajja,Sumanta Mukherjee,Satyam Dwivedi
発行日 2023-03-22 15:17:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク