MISGENDERED: Limits of Large Language Models in Understanding Pronouns

要約

コンテンツに関する警告: この文書には、攻撃的で潜在的に誘発する可能性のある性別の誤りと消去の例が含まれています。
言語技術におけるジェンダーバイアスは広く研究されていますが、研究のほとんどはジェンダーの二項対立パラダイムに限定されています。
非バイナリーの性同一性を考慮することも不可欠です。非バイナリーの性同一性を排除すると、すでに疎外されているグループにさらなる害を及ぼす可能性があるためです。
この論文では、性同一性を持つ個人が使用する英語の性別中立代名詞(例:単数形のthey、them)および新語代名詞(例:ze、xe、thon)を正しく使用する能力について、一般的な言語モデルを包括的に評価します。
二項代名詞では表されません。
我々は、大規模言語モデルが優先代名詞を正しく使用する能力を評価するためのフレームワークである MISGENDERED を紹介します。これは、(i) 個人の代名詞を宣言するインスタンスと、それに続く代名詞が欠落している文、および (ii) マスクされた代名詞と代名詞を評価するための実験設定で構成されます。
統一された方法を使用した自動回帰言語モデル。
そのままの状態でプロンプトを表示した場合、言語モデルは新生代名詞 (平均 7.7% の精度) や性別に依存しない代名詞 (平均 34.2% の精度) を正確に予測するパフォーマンスが低くなります。
この一般化できないことは、トレーニング データおよび記憶された関連付けに非二項代名詞の表現が欠如していることに起因します。
プロンプトに明示的な例を含めて少数のショットを適応させると、新代名詞のパフォーマンスが向上しますが、20 ショットを使用しても 64.7% にとどまります。
完全なデータセット、コード、デモを https://tamannahossainkay.github.io/misgendered/ でリリースします。

要約(オリジナル)

Content Warning: This paper contains examples of misgendering and erasure that could be offensive and potentially triggering. Gender bias in language technologies has been widely studied, but research has mostly been restricted to a binary paradigm of gender. It is essential also to consider non-binary gender identities, as excluding them can cause further harm to an already marginalized group. In this paper, we comprehensively evaluate popular language models for their ability to correctly use English gender-neutral pronouns (e.g., singular they, them) and neo-pronouns (e.g., ze, xe, thon) that are used by individuals whose gender identity is not represented by binary pronouns. We introduce MISGENDERED, a framework for evaluating large language models’ ability to correctly use preferred pronouns, consisting of (i) instances declaring an individual’s pronoun, followed by a sentence with a missing pronoun, and (ii) an experimental setup for evaluating masked and auto-regressive language models using a unified method. When prompted out-of-the-box, language models perform poorly at correctly predicting neo-pronouns (averaging 7.7% accuracy) and gender-neutral pronouns (averaging 34.2% accuracy). This inability to generalize results from a lack of representation of non-binary pronouns in training data and memorized associations. Few-shot adaptation with explicit examples in the prompt improves performance for neo-pronouns, but only to 64.7% even with 20 shots. We release the full dataset, code, and demo at https://tamannahossainkay.github.io/misgendered/

arxiv情報

著者 Tamanna Hossain,Sunipa Dev,Sameer Singh
発行日 2023-07-07 05:18:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク