要約
【タイトル】NLPのための説明可能なマルチ軸バイアス評価指標Bipolの提案
【要約】
– テキストデータ内の社会的バイアスを推定するための説明可能な新しい指標「Bipol」を提案
– オンライン情報源で多く見られる有害なバイアスは、機械学習(ML)モデルのトレーニングに使用されるデータに潜んでいるため、この問題を解決するための指標を作成
– モデル分類に基づくコーパスレベルの評価と(感性的な)用語の頻度(TF)に基づく文レベルの評価の2段階プロセスを用いる
– SotAアーキテクチャを使用して複数の軸に沿ったバイアスを検出するための新しいモデルを作成し、2つの人気のあるNLPデータセット(COPAとSQUAD)を評価
– バイアス検出のためのモデルをトレーニングするための大規模なデータセット(約200万のラベル付きサンプルを含む)を作成して、一般に公開
– コードも公開
要約(オリジナル)
We introduce bipol, a new metric with explainability, for estimating social bias in text data. Harmful bias is prevalent in many online sources of data that are used for training machine learning (ML) models. In a step to address this challenge we create a novel metric that involves a two-step process: corpus-level evaluation based on model classification and sentence-level evaluation based on (sensitive) term frequency (TF). After creating new models to detect bias along multiple axes using SotA architectures, we evaluate two popular NLP datasets (COPA and SQUAD). As additional contribution, we created a large dataset (with almost 2 million labelled samples) for training models in bias detection and make it publicly available. We also make public our codes.
arxiv情報
著者 | Lama Alkhaled,Tosin Adewumi,Sana Sabah Sabry |
発行日 | 2023-04-08 14:45:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI