How Prevalent is Gender Bias in ChatGPT? — Exploring German and English ChatGPT Responses

要約

ChatGPT の導入により、OpenAI は、限られた IT 専門知識を持つユーザーでも大規模言語モデル (LLM) にアクセスできるようになりました。
ただし、自然言語処理 (NLP) の背景がないユーザーは、LLM を適切に理解していない可能性があります。
したがって、システムの固有の限界を認識することにより、システムの出力を額面通りに受け取ることになります。
このペーパーでは、プロンプトと生成された応答を体系的に分析し、ユーザーがシステムの出力を処理する際に注意する必要があるジェンダーバイアスに特に焦点を当て、潜在的な問題を特定します。
女性、男性、または中立的な観点から回答を求められた場合、ChatGPT が英語とドイツ語でどのように反応するかを調査します。
詳細な調査では、選択したプロンプトを調べ、システムが同じ方法で複数回プロンプトを表示された場合に、応答がどの程度異なるかを分析します。
これに基づいて、ChatGPT が非 IT ユーザーの日常業務のテキストの下書きを支援するのに実際に役立つことを示します。
ただし、システムの応答にバイアスがないか、構文的および文法的な間違いがないかを徹底的にチェックすることが極めて重要です。

要約(オリジナル)

With the introduction of ChatGPT, OpenAI made large language models (LLM) accessible to users with limited IT expertise. However, users with no background in natural language processing (NLP) might lack a proper understanding of LLMs. Thus the awareness of their inherent limitations, and therefore will take the systems’ output at face value. In this paper, we systematically analyse prompts and the generated responses to identify possible problematic issues with a special focus on gender biases, which users need to be aware of when processing the system’s output. We explore how ChatGPT reacts in English and German if prompted to answer from a female, male, or neutral perspective. In an in-depth investigation, we examine selected prompts and analyse to what extent responses differ if the system is prompted several times in an identical way. On this basis, we show that ChatGPT is indeed useful for helping non-IT users draft texts for their daily work. However, it is absolutely crucial to thoroughly check the system’s responses for biases as well as for syntactic and grammatical mistakes.

arxiv情報

著者 Stefanie Urchs,Veronika Thurner,Matthias Aßenmacher,Christian Heumann,Stephanie Thiemichen
発行日 2024-05-13 13:04:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.CY, cs.LG パーマリンク