Explaining Text Classifiers with Counterfactual Representations

要約

分類器の十分な動機を持った説明方法の 1 つは、1 つの特徴を除いてすべての点で実際の観察と同一の仮説上の出来事である反事実を利用します。
ただし、一部の属性値は現実世界のもっともらしい出来事と必ずしも一致しない可能性があるため、このような反事実を構築することはテキストに特有の課題を引き起こします。
この論文では、この制限を回避する、テキスト表現の空間に介入することによって反事実を生成する簡単な方法を提案します。
私たちは、私たちの介入は最小限の破壊的であり、パールの因果推論フレームワークで定義されている反事実と一致しているため、理論的には健全であると主張します。
私たちの方法を検証するために、最初に合成データセットで実験を実施し、次に反事実の現実的なデータセットで実験を実施しました。
これにより、明示的なテキスト介入を通じて得られた、グラウンド トゥルースの反事実に基づく分類子予測と、表現空間への介入を通じて導出された反事実との間の直接比較が可能になります。
最終的には、反事実を分類器の説明とバイアス軽減の両方に活用できる現実世界のシナリオを研究します。

要約(オリジナル)

One well motivated explanation method for classifiers leverages counterfactuals which are hypothetical events identical to real observations in all aspects except for one feature. Constructing such counterfactual poses specific challenges for texts, however, as some attribute values may not necessarily align with plausible real-world events. In this paper we propose a simple method for generating counterfactuals by intervening in the space of text representations which bypasses this limitation. We argue that our interventions are minimally disruptive and that they are theoretically sound as they align with counterfactuals as defined in Pearl’s causal inference framework. To validate our method, we conducted experiments first on a synthetic dataset and then on a realistic dataset of counterfactuals. This allows for a direct comparison between classifier predictions based on ground truth counterfactuals – obtained through explicit text interventions – and our counterfactuals, derived through interventions in the representation space. Eventually, we study a real world scenario where our counterfactuals can be leveraged both for explaining a classifier and for bias mitigation.

arxiv情報

著者 Pirmin Lemberger,Antoine Saillenfest
発行日 2024-09-11 16:32:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 62Fxx, cs.CL, cs.LG パーマリンク