要約
私たちは、分類子に対する最適なまばらで多様体に整列した反事実的な説明を見つける問題を研究します。
正準的には、これは、分類器損失関数や多様体アライメント (または \emph{妥当性}) 指標を含む複数の非凸コンポーネントを使用した最適化問題として定式化できます。
\emph{sparsity} の適用による複雑さ、または短い説明により、問題はさらに複雑になります。
既存の手法は多くの場合、特定のモデルと妥当性の尺度に焦点を当てており、スパース性を強制するために凸 $\ell_1$ 正則化子に依存しています。
この論文では、加速近位勾配 (APG) 法を使用した正準定式化に取り組みます。APG 法は、滑らかな非凸対物レンズと滑らかでない $\ell_p$ ($0 \leq p <
1$) のレギュラライザー。
これにより、よりスパースなソリューションを生成しながら、さまざまな分類子と妥当性尺度をシームレスに組み込むアプローチが可能になります。
私たちのアルゴリズムは、微分可能なデータ多様体の正則化のみを必要とし、制限された特徴範囲のボックス制約をサポートし、生成された反事実が \emph{実行可能} であることを保証します。
最後に、実世界のデータセットでの実験は、私たちのアプローチが事実データへの近さと計算効率を維持しながら、まばらで多様体に整列した反事実の説明を効果的に生成することを示しています。
要約(オリジナル)
We study the problem of finding optimal sparse, manifold-aligned counterfactual explanations for classifiers. Canonically, this can be formulated as an optimization problem with multiple non-convex components, including classifier loss functions and manifold alignment (or \emph{plausibility}) metrics. The added complexity of enforcing \emph{sparsity}, or shorter explanations, complicates the problem further. Existing methods often focus on specific models and plausibility measures, relying on convex $\ell_1$ regularizers to enforce sparsity. In this paper, we tackle the canonical formulation using the accelerated proximal gradient (APG) method, a simple yet efficient first-order procedure capable of handling smooth non-convex objectives and non-smooth $\ell_p$ (where $0 \leq p < 1$) regularizers. This enables our approach to seamlessly incorporate various classifiers and plausibility measures while producing sparser solutions. Our algorithm only requires differentiable data-manifold regularizers and supports box constraints for bounded feature ranges, ensuring the generated counterfactuals remain \emph{actionable}. Finally, experiments on real-world datasets demonstrate that our approach effectively produces sparse, manifold-aligned counterfactual explanations while maintaining proximity to the factual data and computational efficiency.
arxiv情報
著者 | Shpresim Sadiku,Moritz Wagner,Sai Ganesh Nagarajan,Sebastian Pokutta |
発行日 | 2024-11-26 16:17:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google