Understanding and Mitigating the Bias Inheritance in LLM-based Data Augmentation on Downstream Tasks

要約

大規模な言語モデル(LLM)自体を介して合成データセットを生成することは、LLMパフォーマンスを改善するための有望なアプローチとして浮上しています。
ただし、LLMは本質的にトレーニングデータに存在するバイアスを反映しており、重要な課題につながります。これらのモデルがトレーニングのために合成データを生成すると、下流タスクのモデルの公平性と堅牢性に大きな影響を与える可能性のある固有のバイアスを伝播して増幅する可能性があります。
バイアス継承と呼ばれます。
この作業は、バイアス相続の理解、分析、および緩和に関する最初の体系的な調査を提示します。
この問題は、バイアス比が増強されたデータの割合を表す元のデータとLLMの高級データで構成される複合データセットを使用してLLMを微調整して研究します。
10の分類および生成タスクにわたる体系的な実験を通じて、さまざまなバイアス比で6種類のバイアスがどのように現れるかを分析します。
私たちの結果は、バイアス継承が下流のタスクに微妙な影響を及ぼし、分類タスクと生成タスクの両方に異なる影響を与えることを明らかにしています。
次に、分析では、値の不整列、グループデータ、およびデータ分布の3つの重要な不整合係数を特定します。
これらの洞察に基づいて、トークンベース、マスクベース、および損失ベースのアプローチの3つの緩和戦略を提案します。
実験は、これらの戦略がさまざまなタスクやバイアスでも異なる動作をしていることを示しており、バイアス継承を完全に軽減するための実質的な課題を示しています。
この作業がLLMデータ増強の研究に貴重な洞察を提供できることを願っています。

要約(オリジナル)

Generating synthetic datasets via large language models (LLMs) themselves has emerged as a promising approach to improve LLM performance. However, LLMs inherently reflect biases present in their training data, leading to a critical challenge: when these models generate synthetic data for training, they may propagate and amplify their inherent biases that can significantly impact model fairness and robustness on downstream tasks–a phenomenon we term bias inheritance. This work presents the first systematic investigation in understanding, analyzing, and mitigating bias inheritance. We study this problem by fine-tuning LLMs with a combined dataset consisting of original and LLM-augmented data, where bias ratio represents the proportion of augmented data. Through systematic experiments across 10 classification and generation tasks, we analyze how 6 different types of biases manifest at varying bias ratios. Our results reveal that bias inheritance has nuanced effects on downstream tasks, influencing both classification tasks and generation tasks differently. Then, our analysis identifies three key misalignment factors: misalignment of values, group data, and data distributions. Based on these insights, we propose three mitigation strategies: token-based, mask-based, and loss-based approaches. Experiments demonstrate that these strategies also work differently on various tasks and bias, indicating the substantial challenges to fully mitigate bias inheritance. We hope this work can provide valuable insights to the research of LLM data augmentation.

arxiv情報

著者 Miaomiao Li,Hao Chen,Yang Wang,Tingyuan Zhu,Weijia Zhang,Kaijie Zhu,Kam-Fai Wong,Jindong Wang
発行日 2025-02-10 16:34:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク