Zero-Shot Position Debiasing for Large Language Models

要約

微調整は、大規模言語モデル (LLM) のドメイン パフォーマンスを向上させる効果的な方法であることが実証されています。
ただし、LLM はデータセットのバイアスや予測のショートカットに適合し、生成パフォーマンスの低下につながる可能性があります。
実験結果は、LLM が位置バイアスを示す傾向があること、つまり、入力内の先頭または末尾に位置する情報、または特定の位置キューを利用する傾向があることを示しています。
位置バイアスを軽減する既存の研究では、外部のバイアス知識または注釈付きの非バイアスサンプルが必要ですが、実際には非現実的です。
この研究では、LLM の位置バイアスを軽減するゼロショット位置偏り除去 (ZOE) フレームワークを提案します。
ZOE は、事前トレーニングされた LLM からの教師なし応答を利用してバイアスを除去するため、外部の知識やデータセットは必要ありません。
教師なし応答の品質を向上させるために、これらの応答を除去するマスター/スレーブ アライメント (MSA) モジュールを提案します。
8 つのデータセットと 5 つのタスクに関する実験では、ZOE が 4 種類の位置バイアスの軽減において既存の手法を常に上回っていることが示されています。
さらに、ZOE は、バイアスされたサンプルのパフォーマンスをわずかに犠牲にするだけでこれを実現しており、これはシンプルかつ効果的です。

要約(オリジナル)

Fine-tuning has been demonstrated to be an effective method to improve the domain performance of large language models (LLMs). However, LLMs might fit the dataset bias and shortcuts for prediction, leading to poor generation performance. Experimental result shows that LLMs are prone to exhibit position bias, i.e., leveraging information positioned at the beginning or end, or specific positional cues within the input. Existing works on mitigating position bias require external bias knowledge or annotated non-biased samples, which is unpractical in reality. In this work, we propose a zero-shot position debiasing (ZOE) framework to mitigate position bias for LLMs. ZOE leverages unsupervised responses from pre-trained LLMs for debiasing, thus without any external knowledge or datasets. To improve the quality of unsupervised responses, we propose a master-slave alignment (MSA) module to prune these responses. Experiments on eight datasets and five tasks show that ZOE consistently outperforms existing methods in mitigating four types of position biases. Besides, ZOE achieves this by sacrificing only a small performance on biased samples, which is simple and effective.

arxiv情報

著者 Zhongkun Liu,Zheng Chen,Mengqi Zhang,Zhaochun Ren,Zhumin Chen,Pengjie Ren
発行日 2024-01-02 14:12:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG, I.2.7 パーマリンク