Explaining Text Classifiers with Counterfactual Representations

要約

分類器の十分に動機付けられた説明方法の 1 つは、1 つのカテゴリ特徴を除いてすべての面で実際の観察と同一の仮説的な出来事である反事実を利用します。
ただし、一部の属性値は現実世界のもっともらしい出来事と必ずしも一致しない可能性があるため、このような反事実を構築することはテキストに特有の課題を引き起こします。
この論文では、この制限を回避する、テキスト表現の空間に介入することによって反事実を生成する簡単な方法を提案します。
私たちは、私たちの介入は最小限の破壊的であり、パールの因果推論フレームワークで定義されている反事実と一致しているため、理論的には健全であると主張します。
私たちの方法を検証するために、最初に反事実の合成データセットで実験を行い、グラウンド トゥルース反事実 (明示的なテキスト介入を通じて取得) に基づく分類器予測と、表現空間への介入を通じて導出された反事実との間の直接比較を可能にします。
次に、分類器の説明とバイアス軽減の両方に反事実を活用できる現実世界のシナリオを研究します。

要約(オリジナル)

One well motivated explanation method for classifiers leverages counterfactuals which are hypothetical events identical to real observations in all aspects except for one categorical feature. Constructing such counterfactual poses specific challenges for texts, however, as some attribute values may not necessarily align with plausible real-world events. In this paper we propose a simple method for generating counterfactuals by intervening in the space of text representations which bypasses this limitation. We argue that our interventions are minimally disruptive and that they are theoretically sound as they align with counterfactuals as defined in Pearl’s causal inference framework. To validate our method, we first conduct experiments on a synthetic dataset of counterfactuals, allowing for a direct comparison between classifier predictions based on ground truth counterfactuals (obtained through explicit text interventions) and our counterfactuals, derived through interventions in the representation space. Second, we study a real world scenario where our counterfactuals can be leveraged both for explaining a classifier and for bias mitigation.

arxiv情報

著者 Pirmin Lemberger,Antoine Saillenfest
発行日 2024-02-01 16:06:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 62Fxx, cs.CL, cs.LG パーマリンク