Fair Text Classification with Wasserstein Independence

要約

グループの公平性はテキスト分類における中心的な研究テーマであり、デリケートなグループ(例:女性対男性)間で公平な扱いに到達することは依然として未解決の課題です。
この論文では、モデル アーキテクチャに依存せず、ニューラル テキスト分類におけるバイアスを軽減する新しい方法を紹介します。
テキスト エンコーダで公正な情報と不公平な情報を区別することの難しさを考慮して、私たちは敵対的トレーニングからインスピレーションを得て、ターゲット ラベルを予測するために学習した表現と、あるセンシティブな属性を予測するために学習した表現との間にワッサーシュタインの独立性を誘導します。
私たちのアプローチには 2 つの大きな利点があります。
まず、テスト データとトレーニング データの両方で機密属性の注釈を必要としません。
これは、トレーニング時に機密属性の注釈を必要とする既存の方法と比較して、現実のシナリオにより適しています。
第 2 に、私たちのアプローチは、既存の方法と比較して同等以上の公平性と精度のトレードオフを示します。

要約(オリジナル)

Group fairness is a central research topic in text classification, where reaching fair treatment between sensitive groups (e.g. women vs. men) remains an open challenge. This paper presents a novel method for mitigating biases in neural text classification, agnostic to the model architecture. Considering the difficulty to distinguish fair from unfair information in a text encoder, we take inspiration from adversarial training to induce Wasserstein independence between representations learned to predict our target label and the ones learned to predict some sensitive attribute. Our approach provides two significant advantages. Firstly, it does not require annotations of sensitive attributes in both testing and training data. This is more suitable for real-life scenarios compared to existing methods that require annotations of sensitive attributes at train time. Second, our approach exhibits a comparable or better fairness-accuracy trade-off compared to existing methods.

arxiv情報

著者 Thibaud Leteno,Antoine Gourru,Charlotte Laclau,Rémi Emonet,Christophe Gravier
発行日 2023-11-21 15:51:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CY, cs.LG パーマリンク