Addressing Biases in the Texts using an End-to-End Pipeline Approach

要約

公平性の概念は、学界や産業界で人気を集めています。
ソーシャル メディアは、メディアの偏見や有毒な言葉やコメントに対して特に脆弱です。
テキストを入力として受け取り、バイアスや有毒なコンテンツが含まれているかどうかを判断する公平な ML パイプラインを提案します。
次に、事前にトレーニングされた単語の埋め込みに基づいて、バイアスされた単語を置き換えることによって一連の新しい単語を提案します。アイデアは、それらを代替の単語に置き換えることによって、これらのバイアスの影響を軽減することです。
アプローチを既存の公平性モデルと比較して、その有効性を判断します。
結果は、提案されたパイプラインがソーシャルメディアデータのバイアスを検出、特定、および軽減できることを示しています

要約(オリジナル)

The concept of fairness is gaining popularity in academia and industry. Social media is especially vulnerable to media biases and toxic language and comments. We propose a fair ML pipeline that takes a text as input and determines whether it contains biases and toxic content. Then, based on pre-trained word embeddings, it suggests a set of new words by substituting the bi-ased words, the idea is to lessen the effects of those biases by replacing them with alternative words. We compare our approach to existing fairness models to determine its effectiveness. The results show that our proposed pipeline can de-tect, identify, and mitigate biases in social media data

arxiv情報

著者 Shaina Raza,Syed Raza Bashir,Sneha,Urooj Qamar
発行日 2023-03-13 11:41:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク