Disentangling Dialect from Social Bias via Multitask Learning to Improve Fairness

要約

方言は、地域または社会集団で発生する言語の構文的および語彙的な変化をもたらします。
ほとんどの NLP メソッドは、そのような変動の影響を受けません。
これはメソッドの不公平な動作につながり、方言話者に対する否定的な偏見を伝える可能性があります。
これまでの研究では、ヘイトスピーチなどの側面に関して方言に関連した公平性が研究されてきましたが、猥褻さなどの偏った言語の他の側面については完全に未調査のままです。
このギャップを埋めるために、偏った言語の 5 つの側面の検出における方言間のパフォーマンスの差異と、それらを軽減する方法を調査します。
偏見を軽減するために、統語的および語彙的なバリエーションを組み込むための補助タスクとして方言言語をモデル化するマルチタスク学習アプローチを提案します。
アフリカ系アメリカ人の英語方言を使った実験では、共通の学習アプローチを方言モデリングで補完することで公平性が向上するという経験的証拠を提供しました。
さらに、この結果は、マルチタスク学習が最先端のパフォーマンスを達成し、偏った言語の特性をより確実に検出するのに役立つことを示唆しています。

要約(オリジナル)

Dialects introduce syntactic and lexical variations in language that occur in regional or social groups. Most NLP methods are not sensitive to such variations. This may lead to unfair behavior of the methods, conveying negative bias towards dialect speakers. While previous work has studied dialect-related fairness for aspects like hate speech, other aspects of biased language, such as lewdness, remain fully unexplored. To fill this gap, we investigate performance disparities between dialects in the detection of five aspects of biased language and how to mitigate them. To alleviate bias, we present a multitask learning approach that models dialect language as an auxiliary task to incorporate syntactic and lexical variations. In our experiments with African-American English dialect, we provide empirical evidence that complementing common learning approaches with dialect modeling improves their fairness. Furthermore, the results suggest that multitask learning achieves state-of-the-art performance and helps to detect properties of biased language more reliably.

arxiv情報

著者 Maximilian Spliethöver,Sai Nikhil Menon,Henning Wachsmuth
発行日 2024-06-14 12:39:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク