要約
大規模言語モデル (LLM) の既存の公平性ベンチマークは、主に多肢選択式の質問などの単純なタスクに焦点を当てており、長文の生成などのより複雑なシナリオで発生する可能性のあるバイアスは無視されています。
このギャップに対処するために、エッセイ形式のプロンプトを通じて LLM のバイアスを評価するフレームワークである Long Text Fairness Test (LTF-TEST) を導入します。
LTF-TEST は 14 のトピックと、性別や人種を含む 10 の人口統計軸をカバーし、11,948 のサンプルが得られます。
LTF-TEST は、モデルの応答とその背後にある推論の両方を評価することで、単純な応答では検出が難しい微妙なバイアスを明らかにします。
GPT-4o や LLaMa3 など、最近の 5 つの LLM を評価したところ、2 つの主要なバイアス パターンが特定されました。
まず、これらのモデルは、応答において特定の人口統計グループを支持することがよくあります。
第二に、彼らは伝統的に恵まれないグループに対して過度の敏感さを示し、他の人を無視して過度に保護的な反応を示すことがよくあります。
これらのバイアスを軽減するために、偏ったプロンプトと中立的な応答を組み合わせる微調整アプローチである FT-REGARD を提案します。
FT-REGARD は、BBQ ベンチマークでジェンダーバイアスを 34.6% 削減し、パフォーマンスを 1.4 パーセント向上させ、長文生成タスクにおけるバイアスに対処するための有望なアプローチを提供します。
要約(オリジナル)
Existing fairness benchmarks for large language models (LLMs) primarily focus on simple tasks, such as multiple-choice questions, overlooking biases that may arise in more complex scenarios like long-text generation. To address this gap, we introduce the Long Text Fairness Test (LTF-TEST), a framework that evaluates biases in LLMs through essay-style prompts. LTF-TEST covers 14 topics and 10 demographic axes, including gender and race, resulting in 11,948 samples. By assessing both model responses and the reasoning behind them, LTF-TEST uncovers subtle biases that are difficult to detect in simple responses. In our evaluation of five recent LLMs, including GPT-4o and LLaMa3, we identify two key patterns of bias. First, these models frequently favor certain demographic groups in their responses. Second, they show excessive sensitivity toward traditionally disadvantaged groups, often providing overly protective responses while neglecting others. To mitigate these biases, we propose FT-REGARD, a finetuning approach that pairs biased prompts with neutral responses. FT-REGARD reduces gender bias by 34.6% and improves performance by 1.4 percentage points on the BBQ benchmark, offering a promising approach to addressing biases in long-text generation tasks.
arxiv情報
著者 | Wonje Jeung,Dongjae Jeon,Ashkan Yousefpour,Jonghyun Choi |
発行日 | 2024-10-25 13:14:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google