Epistemological Bias As a Means for the Automated Detection of Injustices in Text

要約

不公平は、誰かが不公平な扱いを受けたり、権利が侵害されたりしたときに発生しますが、多くの場合、固定観念などの暗黙の偏見や偏見の存在が原因です。
テキスト内の不正の自動識別は、ほとんど注目されていません。その理由の一部は、根底にある暗黙の偏見や固定観念が明示的に述べられることはめったになく、社会に蔓延する偏見の性質により、その事例は無意識のうちに発生することが多いという事実です。
ここでは、微調整された BERT ベースのバイアス検出モデル、2 つのステレオタイプ検出モデル、および語彙ベースのアプローチの使用を組み合わせて、認識論的バイアス (つまり、前提、必然、主張する言葉など) が存在することを示す新しいフレームワークについて説明します。
、テキストをヘッジしたり、知識としての人の能力を侵食したり強調したりすること)は、テキスト内の不正の自動検出を支援できます。
ニュースメディアには不正義(差別的な報道など)の事例が数多くあるため、それがここでの使用例となります。
私たちは、より大量のデータであっても、不公平を検出するためにフレームワークをどのように適用できるかを示す実証的な定性調査研究を実施し、議論します。

要約(オリジナル)

Injustice occurs when someone experiences unfair treatment or their rights are violated and is often due to the presence of implicit biases and prejudice such as stereotypes. The automated identification of injustice in text has received little attention, due in part to the fact that underlying implicit biases or stereotypes are rarely explicitly stated and that instances often occur unconsciously due to the pervasive nature of prejudice in society. Here, we describe a novel framework that combines the use of a fine-tuned BERT-based bias detection model, two stereotype detection models, and a lexicon-based approach to show that epistemological biases (i.e., words, which presupposes, entails, asserts, hedges, or boosts text to erode or assert a person’s capacity as a knower) can assist with the automatic detection of injustice in text. The news media has many instances of injustice (i.e. discriminatory narratives), thus it is our use case here. We conduct and discuss an empirical qualitative research study which shows how the framework can be applied to detect injustices, even at higher volumes of data.

arxiv情報

著者 Kenya Andrews,Lamogha Chiazor
発行日 2024-07-08 16:38:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク