Marked Personas: Using Natural Language Prompts to Measure Stereotypes in Language Models

要約

大規模言語モデル (LLM) による害を認識して軽減するには、LLM 出力におけるステレオタイプの蔓延とニュアンスを理解する必要があります。
この目的に向けて、辞書やデータのラベル付けを行わずに、交差する人口統計グループの LLM のステレオタイプを測定するためのプロンプトベースの方法であるマーク付きペルソナを紹介します。
社会言語学的有マーク性の概念(明示的に言語的にマークされたカテゴリとマークなしのデフォルトを特徴づける)に基づいて、私たちが提案する方法は次の 2 つの要素から構成されます。 1) LLM に、マークされていないペルソナと並んでターゲット人口統計グループのペルソナ、つまり自然言語記述を生成するよう促す。
デフォルトのグループ。
2) ターゲットグループのペルソナと対応するマークのないペルソナを大きく区別する単語を特定する。
GPT-3.5 および GPT-4 によって生成された描写には、同じプロンプトを使用して人間が作成した描写よりも高い割合で人種的固定観念が含まれていることがわかりました。
顕著な(非白人、非男性)グループのペルソナを区別する言葉は、これらの人口統計の他者化とエキゾチック化のパターンを反映しています。
交差するレンズは、熱帯主義や少数派の女性の過剰な性的指向など、疎外されたグループの描写を支配する比喩をさらに明らかにします。
これらの表現上の害は、ストーリー生成などの下流アプリケーションに憂慮すべき影響を及ぼします。

要約(オリジナル)

To recognize and mitigate harms from large language models (LLMs), we need to understand the prevalence and nuances of stereotypes in LLM outputs. Toward this end, we present Marked Personas, a prompt-based method to measure stereotypes in LLMs for intersectional demographic groups without any lexicon or data labeling. Grounded in the sociolinguistic concept of markedness (which characterizes explicitly linguistically marked categories versus unmarked defaults), our proposed method is twofold: 1) prompting an LLM to generate personas, i.e., natural language descriptions, of the target demographic group alongside personas of unmarked, default groups; 2) identifying the words that significantly distinguish personas of the target group from corresponding unmarked ones. We find that the portrayals generated by GPT-3.5 and GPT-4 contain higher rates of racial stereotypes than human-written portrayals using the same prompts. The words distinguishing personas of marked (non-white, non-male) groups reflect patterns of othering and exoticizing these demographics. An intersectional lens further reveals tropes that dominate portrayals of marginalized groups, such as tropicalism and the hypersexualization of minoritized women. These representational harms have concerning implications for downstream applications like story generation.

arxiv情報

著者 Myra Cheng,Esin Durmus,Dan Jurafsky
発行日 2023-05-29 16:29:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CY パーマリンク