A Comprehensive View of the Biases of Toxicity and Sentiment Analysis Methods Towards Utterances with African American English Expressions

要約

言語は私たちの文化の動的な側面であり、さまざまなテクノロジーやコミュニティで表現されると変化します。
オンライン ソーシャル ネットワークにより、アフリカ系アメリカ人英語 (AAE) を含むさまざまな方言の拡散と進化が可能になりました。
ただし、この使用量の増加には障壁がないわけではありません。
特定の障壁の 1 つは、センチメント (Vader、TextBlob、Flair) および毒性 (Google の Perspective およびオープンソースの Detoxify) メソッドが、AAE 表現を含む発話に対するバイアスをどのように提示するかです。
バイアスを理解するには、Google の視点を考慮してください。
ここで「すべてのナ○ガーは敬意を持って死ぬに値する」といった発言がなされる。
警察は私たちを殺害する」という言葉は、「アフリカ系アメリカ人は敬意を持って死ぬに値する」よりも毒性が高い。
警察は私たちを殺します。」
このスコアの差は、ツールが「n*gger」という用語の再利用を理解できないために発生すると考えられます。
このバイアスの説明の 1 つは、AI モデルが限られたデータセットでトレーニングされており、トレーニング データでそのような用語を使用すると、有害な発話に現れる可能性が高くなることです。
これはもっともらしいかもしれませんが、いずれにしてもツールは間違いを犯します。
ここでは、2 つの Web ベース (YouTube と Twitter) データセットと 2 つの英語の音声データセットに関するバイアスを研究します。
私たちの分析は、ほとんどの設定において、ほとんどのモデルが AAE に対するバイアスをどのように示しているかを示しています。
Linguistic Question and Word Count (LIWC) ソフトウェアの言語制御機能、自然言語処理 (NLP) モデルからの品詞 (PoS) タグ付けを介して抽出された文法制御機能、およびセマンティックを介して、AAE 表現の使用の影響を分離します。
最近の言語モデルからの文の埋め込みを比較することによる発話の分析。
ほぼ同じ主題について話している場合でも、AAE 表現を多用すると、その話者がどのようにしてより有害であるとみなされるかについて、一貫した結果を示します。
私たちの研究は、小規模なデータセットおよび/または 1 つの方法のみに焦点を当てた同様の分析を補完します。

要約(オリジナル)

Language is a dynamic aspect of our culture that changes when expressed in different technologies/communities. Online social networks have enabled the diffusion and evolution of different dialects, including African American English (AAE). However, this increased usage is not without barriers. One particular barrier is how sentiment (Vader, TextBlob, and Flair) and toxicity (Google’s Perspective and the open-source Detoxify) methods present biases towards utterances with AAE expressions. Consider Google’s Perspective to understand bias. Here, an utterance such as “All n*ggers deserve to die respectfully. The police murder us.” it reaches a higher toxicity than “African-Americans deserve to die respectfully. The police murder us.”. This score difference likely arises because the tool cannot understand the re-appropriation of the term “n*gger”. One explanation for this bias is that AI models are trained on limited datasets, and using such a term in training data is more likely to appear in a toxic utterance. While this may be plausible, the tool will make mistakes regardless. Here, we study bias on two Web-based (YouTube and Twitter) datasets and two spoken English datasets. Our analysis shows how most models present biases towards AAE in most settings. We isolate the impact of AAE expression usage via linguistic control features from the Linguistic Inquiry and Word Count (LIWC) software, grammatical control features extracted via Part-of-Speech (PoS) tagging from Natural Language Processing (NLP) models, and the semantic of utterances by comparing sentence embeddings from recent language models. We present consistent results on how a heavy usage of AAE expressions may cause the speaker to be considered substantially more toxic, even when speaking about nearly the same subject. Our study complements similar analyses focusing on small datasets and/or one method only.

arxiv情報

著者 Guilherme H. Resende,Luiz F. Nery,Fabrício Benevenuto,Savvas Zannettou,Flavio Figueiredo
発行日 2024-01-23 12:41:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.SI パーマリンク