DiCoFlex: Model-agnostic diverse counterfactuals with flexible control

要約

反事実的な説明は、機械学習モデルの決定を解明する直感的で人間的に理解可能な代替案を提供することにより、説明可能な人工知能(XAI)で極めて重要な役割を果たします。
その重要性にもかかわらず、反事実を生成するための既存の方法は、多くの場合、予測モデルへの絶え間ないアクセスを必要とし、各インスタンスの計算的に集中的な最適化を伴い、再訓練なしで新しいユーザー定義の制約に適応する柔軟性がありません。
この論文では、単一の前方パスで複数の多様な反事実を生成する新しいモデルに依存しない条件付き生成フレームワークであるDicoflexを提案します。
ラベル付きデータのみでトレーニングされた条件付き正規化フローを活用するDICOFLEXは、推論時にスパース性やアクション性などの制約のリアルタイムユーザー駆動型のカスタマイズを可能にすることにより、重要な制限に対処します。
標準のベンチマークデータセットでの広範な実験は、DICOFLEXが有効性、多様性、近接性、および制約順守の観点から既存の方法を上回ることを示しており、それを機密性のある意思決定ドメインにおける反事実的生成のための実用的でスケーラブルなソリューションにしていることを示しています。

要約(オリジナル)

Counterfactual explanations play a pivotal role in explainable artificial intelligence (XAI) by offering intuitive, human-understandable alternatives that elucidate machine learning model decisions. Despite their significance, existing methods for generating counterfactuals often require constant access to the predictive model, involve computationally intensive optimization for each instance and lack the flexibility to adapt to new user-defined constraints without retraining. In this paper, we propose DiCoFlex, a novel model-agnostic, conditional generative framework that produces multiple diverse counterfactuals in a single forward pass. Leveraging conditional normalizing flows trained solely on labeled data, DiCoFlex addresses key limitations by enabling real-time user-driven customization of constraints such as sparsity and actionability at inference time. Extensive experiments on standard benchmark datasets show that DiCoFlex outperforms existing methods in terms of validity, diversity, proximity, and constraint adherence, making it a practical and scalable solution for counterfactual generation in sensitive decision-making domains.

arxiv情報

著者 Oleksii Furman,Ulvi Movsum-zada,Patryk Marszalek,Maciej Zięba,Marek Śmieja
発行日 2025-05-29 17:37:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク