要約
AIシステムの複雑さの高まりにより、説明可能なAI(XAI)を通じて透明性の必要性が強化されました。
反事実的な説明(CFS)は、3つのレベルで実用的な「What-if」シナリオを提供します。インスタンス固有の洞察を提供するローカルCF、より広範なトレンドに対処するグローバルCFS、およびグループごとのCFS(GWCF)は、バランスを取り、結束群内のパターンを明らかにします。
各粒度レベルのメソッドが可用性にもかかわらず、フィールドにはこれらの補完的なアプローチを統合する統合された方法がありません。
統一された方法でローカル、グローバル、およびグループごとの反事実的な説明を生成する微分可能モデルの勾配ベースの最適化方法を提案することにより、この制限に対処します。
インスタンスのグループ化と反事実的生成を単一の効率的なプロセスに組み合わせて、従来の2段階の方法に置き換えることにより、特にGWCF生成を強化します。
さらに、信頼性を確保するために、妥当性基準のGWCFドメインへの統合を革新的に導入し、有効かつ現実的な説明を作成します。
我々の結果は、実用的なユースケースを通じて実用的なユーティリティを検証しながら、グループの粒度を最適化しながら、妥当性、近接性、および妥当性のバランスをとる方法の有効性を示しています。
要約(オリジナル)
The growing complexity of AI systems has intensified the need for transparency through Explainable AI (XAI). Counterfactual explanations (CFs) offer actionable ‘what-if’ scenarios on three levels: Local CFs providing instance-specific insights, Global CFs addressing broader trends, and Group-wise CFs (GWCFs) striking a balance and revealing patterns within cohesive groups. Despite the availability of methods for each granularity level, the field lacks a unified method that integrates these complementary approaches. We address this limitation by proposing a gradient-based optimization method for differentiable models that generates Local, Global, and Group-wise Counterfactual Explanations in a unified manner. We especially enhance GWCF generation by combining instance grouping and counterfactual generation into a single efficient process, replacing traditional two-step methods. Moreover, to ensure trustworthiness, we innovatively introduce the integration of plausibility criteria into the GWCF domain, making explanations both valid and realistic. Our results demonstrate the method’s effectiveness in balancing validity, proximity, and plausibility while optimizing group granularity, with practical utility validated through practical use cases.
arxiv情報
著者 | Oleksii Furman,Patryk Wielopolski,Łukasz Lenkiewicz,Jerzy Stefanowski,Maciej Zięba |
発行日 | 2025-05-29 17:23:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google