Undesirable biases in NLP: Addressing challenges of measurement

要約

大規模言語モデルと自然言語処理 (NLP) テクノロジーが急速に発展し、日常生活に普及するにつれて、それらの使用が人々にどのような害を及ぼす可能性があるかを予測することが重要になっています。
近年多くの注目を集めている問題の 1 つは、このテクノロジーが、軽蔑的な固定観念の生成から、さまざまな社会集団に異なる結果を生み出すまで、有害なバイアスを示していることです。
これらのバイアスを評価し軽減するために多大な努力が費やされてきましたが、NLP モデルのバイアスを測定する私たちの方法には重大な問題があり、実際に何を測定するのかが不明瞭であることがよくあります。
この論文では、直接観察できないバイアスなどの概念の測定に特化した分野である心理測定のレンズを採用することで、NLP モデルのバイアスの問題を議論するための学際的なアプローチを提供します。
特に、心理測定学の 2 つの中心的な概念である、測定ツールの \emph{構築妥当性} と \emph{信頼性} を探求し、モデルのバイアスを測定する文脈でそれらをどのように適用できるかについて説明します。
私たちの目標は、NLP 実践者に、より良いバイアス測定を設計するための方法論的なツールを提供し、バイアス測定ツールに取り組む際に心理測定のツールをより一般的に検討するよう促すことです。

要約(オリジナル)

As Large Language Models and Natural Language Processing (NLP) technology rapidly develop and spread into daily life, it becomes crucial to anticipate how their use could harm people. One problem that has received a lot of attention in recent years is that this technology has displayed harmful biases, from generating derogatory stereotypes to producing disparate outcomes for different social groups. Although a lot of effort has been invested in assessing and mitigating these biases, our methods of measuring the biases of NLP models have serious problems and it is often unclear what they actually measure. In this paper, we provide an interdisciplinary approach to discussing the issue of NLP model bias by adopting the lens of psychometrics — a field specialized in the measurement of concepts like bias that are not directly observable. In particular, we will explore two central notions from psychometrics, the \emph{construct validity} and the \emph{reliability} of measurement tools, and discuss how they can be applied in the context of measuring model bias. Our goal is to provide NLP practitioners with methodological tools for designing better bias measures, and to inspire them more generally to explore tools from psychometrics when working on bias measurement tools.

arxiv情報

著者 Oskar van der Wal,Dominik Bachmann,Alina Leidinger,Leendert van Maanen,Willem Zuidema,Katrin Schulz
発行日 2023-11-07 10:07:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク