要約
近年、言語モデルにおける社会的偏見の多くの尺度が提案されています。
一般的なアプローチは、一連の単語入力プロンプトを使用して言語モデルの動作を評価することです。
この作業では、StereoSet と CrowS-Pairs という 2 つの方法の有効性を分析します。
適切な対照群のサンプルが構築された場合、これらの測定値が予期せぬ非論理的な結果を生み出すことを示します。
これらのことから、問題があると判断し、今後の使用を検討する必要があります。
改善されたテスト プロトコルで前進する方法を提案します。
最後に、スロバキアの新しいジェンダー バイアス データセットも紹介します。
要約(オリジナル)
Many measures of societal bias in language models have been proposed in recent years. A popular approach is to use a set of word filling prompts to evaluate the behavior of the language models. In this work, we analyze the validity of two such measures — StereoSet and CrowS-Pairs. We show that these measures produce unexpected and illogical results when appropriate control group samples are constructed. Based on this, we believe that they are problematic and using them in the future should be reconsidered. We propose a way forward with an improved testing protocol. Finally, we also introduce a new gender bias dataset for Slovak.
arxiv情報
著者 | Matúš Pikuliak,Ivana Beňová,Viktor Bachratý |
発行日 | 2023-02-24 14:08:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google