Interval Abstractions for Robust Counterfactual Explanations

要約

反事実的説明 (CE) は、説明可能な AI 研究における主要なパラダイムとして台頭しており、機械学習モデルの決定によって影響を受けるユーザーにリソースの推奨を提供します。
ただし、既存の方法で見つかった CE は、生成されたモデルのパラメーターにわずかな変更が発生すると無効になることがよくあります。
文献には、CE の堅牢性を向上させる既存の方法のほとんどがヒューリスティックであり、限られた数の再トレーニングされたモデルのみを使用して堅牢性のパフォーマンスが経験的に評価されているため、モデル変更時の CE の徹底的な堅牢性保証を提供する方法が不足しています。
このギャップを埋めるために、我々はパラメトリック機械学習モデルのための新しい区間抽象化手法を提案します。これにより、おそらく無限のもっともらしいモデル変更 $\Delta$ の下で CE に対する証明可能な堅牢性の保証を得ることができます。
この考えに基づいて、バイナリ分類設定とマルチクラス分類設定の両方で、$\Delta$-robustness と呼ぶ CE の堅牢性の概念を形式化します。
混合整数線形計画法に基づいて $\Delta$ 堅牢性を検証する手順を示し、それを使用して $\Delta$ 堅牢な CE を生成するアルゴリズムをさらに提案します。
ニューラル ネットワークとロジスティック回帰モデルを含む広範な実証研究で、私たちはアプローチの実際的な適用可能性を実証しました。
私たちの方法で適切なハイパーパラメータを決定するための 2 つの戦略について説明し、11 の方法によって生成された CE を定量的にベンチマークし、堅牢な CE を見つける際のアルゴリズムの有効性を強調します。

要約(オリジナル)

Counterfactual Explanations (CEs) have emerged as a major paradigm in explainable AI research, providing recourse recommendations for users affected by the decisions of machine learning models. However, CEs found by existing methods often become invalid when slight changes occur in the parameters of the model they were generated for. The literature lacks a way to provide exhaustive robustness guarantees for CEs under model changes, in that existing methods to improve CEs’ robustness are mostly heuristic, and the robustness performances are evaluated empirically using only a limited number of retrained models. To bridge this gap, we propose a novel interval abstraction technique for parametric machine learning models, which allows us to obtain provable robustness guarantees for CEs under a possibly infinite set of plausible model changes $\Delta$. Based on this idea, we formalise a robustness notion for CEs, which we call $\Delta$-robustness, in both binary and multi-class classification settings. We present procedures to verify $\Delta$-robustness based on Mixed Integer Linear Programming, using which we further propose algorithms to generate CEs that are $\Delta$-robust. In an extensive empirical study involving neural networks and logistic regression models, we demonstrate the practical applicability of our approach. We discuss two strategies for determining the appropriate hyperparameters in our method, and we quantitatively benchmark CEs generated by eleven methods, highlighting the effectiveness of our algorithms in finding robust CEs.

arxiv情報

著者 Junqi Jiang,Francesco Leofante,Antonio Rago,Francesca Toni
発行日 2024-11-22 15:01:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク