Evaluating Metrics for Bias in Word Embeddings

要約

ここ数年で、単語と文の埋め込みは、あらゆる種類の NLP タスクのテキスト前処理として確立され、パフォーマンスが大幅に向上しました。
残念ながら、これらの埋め込みはトレーニング データからさまざまな種類のバイアスを継承し、それによって社会に存在するバイアスを NLP ソリューションに伝えることも示されています。
多くの論文は、バイアス除去方法を評価したり、通常はコサインベースのメトリクスを使用してさまざまな埋め込みモデルを比較したりするために、単語または文の埋め込みのバイアスを定量化しようとしました。
しかし、最近、一部の研究では、このような指標が低いバイアスを報告しているにもかかわらず、他のテストでは依然としてバイアスが示されていることを示すこれらの指標について疑問を提起しています。
実際、文献には、最適な解決策についてのコンセンサスが得られていない、多種多様なバイアス指標やテストが提案されています。
しかし、理論レベルでバイアス指標を評価したり、さまざまなバイアス指標の長所と短所を詳しく説明したりする研究は不足しています。
この作業では、さまざまなコサインベースのバイアスメトリクスを検討します。
以前の研究からのアイデアに基づいてバイアスの定義を形式化し、バイアス指標の条件を導き出します。
さらに、既存のコサインベースのメトリクスとその制限を徹底的に調査し、これらのメトリクスが場合によってはバイアスを報告できない理由を示します。
最後に、既存のメトリクスの欠点に対処し、SAME が適切に動作することを数学的に証明するために、新しいメトリクス SAME を提案します。

要約(オリジナル)

Over the last years, word and sentence embeddings have established as text preprocessing for all kinds of NLP tasks and improved the performances significantly. Unfortunately, it has also been shown that these embeddings inherit various kinds of biases from the training data and thereby pass on biases present in society to NLP solutions. Many papers attempted to quantify bias in word or sentence embeddings to evaluate debiasing methods or compare different embedding models, usually with cosine-based metrics. However, lately some works have raised doubts about these metrics showing that even though such metrics report low biases, other tests still show biases. In fact, there is a great variety of bias metrics or tests proposed in the literature without any consensus on the optimal solutions. Yet we lack works that evaluate bias metrics on a theoretical level or elaborate the advantages and disadvantages of different bias metrics. In this work, we will explore different cosine based bias metrics. We formalize a bias definition based on the ideas from previous works and derive conditions for bias metrics. Furthermore, we thoroughly investigate the existing cosine-based metrics and their limitations to show why these metrics can fail to report biases in some cases. Finally, we propose a new metric, SAME, to address the shortcomings of existing metrics and mathematically prove that SAME behaves appropriately.

arxiv情報

著者 Sarah Schröder,Alexander Schulz,Philip Kenneweg,Robert Feldhans,Fabian Hinder,Barbara Hammer
発行日 2024-09-12 08:04:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク