Strategic Demonstration Selection for Improved Fairness in LLM In-Context Learning

要約

最近の研究では、表形式データの処理において大規模言語モデル (LLM) を制御するためにインコンテキスト学習 (ICL) を使用することの有効性が強調されていますが、このようなデータの構造化された性質を考慮すると困難なタスクです。
パフォーマンスの進歩にもかかわらず、これらの方法の公平性への影響はあまり理解されていません。
この研究では、ICL プロンプト内のさまざまなデモンストレーションが LLM の公平性の結果にどのように影響するかを調査します。
私たちの調査結果では、プロンプトに少数派のサンプルを意図的に含めることで、予測の精度を犠牲にすることなく公平性が大幅に向上することが明らかになりました。
さらなる実験により、デモンストレーションにおける少数派サンプルと多数派サンプルの比率が公平性と予測精度の間のトレードオフに影響を与えることが実証されました。
これらの洞察に基づいて、クラスタリングと進化的戦略を採用して、トレーニング データから多様で代表的なサンプル セットを厳選する緩和手法を紹介します。
このアプローチは、ICL アプリケーションの予測パフォーマンスと公平性の両方を強化することを目的としています。
実験結果は、私たちが提案した方法がさまざまな指標にわたる公平性を劇的に改善することを検証し、現実世界のシナリオでその有効性を示しています。

要約(オリジナル)

Recent studies highlight the effectiveness of using in-context learning (ICL) to steer large language models (LLMs) in processing tabular data, a challenging task given the structured nature of such data. Despite advancements in performance, the fairness implications of these methods are less understood. This study investigates how varying demonstrations within ICL prompts influence the fairness outcomes of LLMs. Our findings reveal that deliberately including minority group samples in prompts significantly boosts fairness without sacrificing predictive accuracy. Further experiments demonstrate that the proportion of minority to majority samples in demonstrations affects the trade-off between fairness and prediction accuracy. Based on these insights, we introduce a mitigation technique that employs clustering and evolutionary strategies to curate a diverse and representative sample set from the training data. This approach aims to enhance both predictive performance and fairness in ICL applications. Experimental results validate that our proposed method dramatically improves fairness across various metrics, showing its efficacy in real-world scenarios.

arxiv情報

著者 Jingyu Hu,Weiru Liu,Mengnan Du
発行日 2024-08-19 07:34:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CY, cs.LG パーマリンク