要約
私たちは、分類器の最適なまばらで多様な反事実的説明を見つける問題を研究します。
標準的には、これは、分類器損失関数やマニホールドアライメント(または\ emphince {quatuisibility})メトリックを含む複数の非凸コンポーネントの最適化問題として定式化できます。
強制\ emph {Sparsity}、または短い説明の追加された複雑さは、問題をさらに複雑にします。
既存の方法は、多くの場合、特定のモデルと妥当性測定に焦点を当て、凸$ \ ell_1 $の正統派に依存して、スパースを強制します。
このホワイトペーパーでは、スムーズな非凸対目標と非滑らかな$ \ eLL_p $($ 0 \ leq p <<<\ leq p <を処理できる、加速近位勾配(APG)メソッドを使用して標準配合に取り組みます。
1 $)正規化
これにより、私たちのアプローチは、さまざまな分類器と妥当性の測定値をシームレスに組み込み、まばらなソリューションを生成することができます。
当社のアルゴリズムには、微分可能なデータマニフォルズの正統派のみが必要であり、境界のある機能範囲のボックスの制約をサポートし、生成された反事実が\ empond {実行可能}のままであることを保証します。
最後に、実際のデータセットでの実験は、私たちのアプローチが事実データと計算効率に近接しながら、まばらで多様な反事実的な説明を効果的に生成することを示しています。
要約(オリジナル)
We study the problem of finding optimal sparse, manifold-aligned counterfactual explanations for classifiers. Canonically, this can be formulated as an optimization problem with multiple non-convex components, including classifier loss functions and manifold alignment (or \emph{plausibility}) metrics. The added complexity of enforcing \emph{sparsity}, or shorter explanations, complicates the problem further. Existing methods often focus on specific models and plausibility measures, relying on convex $\ell_1$ regularizers to enforce sparsity. In this paper, we tackle the canonical formulation using the accelerated proximal gradient (APG) method, a simple yet efficient first-order procedure capable of handling smooth non-convex objectives and non-smooth $\ell_p$ (where $0 \leq p < 1$) regularizers. This enables our approach to seamlessly incorporate various classifiers and plausibility measures while producing sparser solutions. Our algorithm only requires differentiable data-manifold regularizers and supports box constraints for bounded feature ranges, ensuring the generated counterfactuals remain \emph{actionable}. Finally, experiments on real-world datasets demonstrate that our approach effectively produces sparse, manifold-aligned counterfactual explanations while maintaining proximity to the factual data and computational efficiency.
arxiv情報
著者 | Shpresim Sadiku,Moritz Wagner,Sai Ganesh Nagarajan,Sebastian Pokutta |
発行日 | 2025-01-28 07:17:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google