要約
大規模言語モデル(LLM)におけるプリファレンス・アライメントは、人間の指示や意図に従う能力を著しく向上させている。しかし、既存の直接アライメントアルゴリズムは、主に相対的な嗜好に焦点を当てており、AIフィードバック中に判定モデルからの報酬スコアを含む嗜好データにアクセスできるにもかかわらず、応答の質的側面を見落とすことが多い。選ばれた応答とわずかに劣る拒否された応答との間の暗黙の報酬ギャップを最大化しようと努力すると、過剰適合や、質の高い拒否された応答の不必要な未学習を引き起こす可能性がある。また、報酬スコアを意識しないため、LLMは低品質な選択応答を無差別に優先し、データが疎な最適応答への汎化に失敗する。このような欠点を克服するために、本研究では、データセット内の応答品質の全スペクトルを識別して学習し、より最適な領域への外挿を支援する報酬条件付きLLMポリシーを導入する。報酬条件付きデータセットを構築するために、嗜好ペアを品質スコアに条件付ける、効果的かつ単純なデータ再ラベリング法を提案する。様々なベンチマークと多様なモデルを対象とした実験により、我々の手法が一貫してDPOをかなりのマージンで向上させることを実証する。包括的なアブレーション研究を通じて、我々の手法が嗜好データの有用性を最大化するだけでなく、学習不能の問題を緩和することを実証し、単なるデータ拡張にとどまらない幅広い有効性を示す。我々のコードはhttps://github.com/shenao-zhang/reward-augmented-preference。
要約(オリジナル)
Preference alignment in Large Language Models (LLMs) has significantly improved their ability to adhere to human instructions and intentions. However, existing direct alignment algorithms primarily focus on relative preferences and often overlook the qualitative aspects of responses, despite having access to preference data that includes reward scores from judge models during AI feedback. Striving to maximize the implicit reward gap between the chosen and the slightly inferior rejected responses can cause overfitting and unnecessary unlearning of the high-quality rejected responses. The unawareness of the reward scores also drives the LLM to indiscriminately favor the low-quality chosen responses and fail to generalize to optimal responses that are sparse in data. To overcome these shortcomings, our study introduces reward-conditioned LLM policies that discern and learn from the entire spectrum of response quality within the dataset, helping extrapolate to more optimal regions. We propose an effective yet simple data relabeling method that conditions the preference pairs on quality scores to construct a reward-augmented dataset. The experiments across various benchmarks and diverse models demonstrate that our approach consistently boosts DPO by a considerable margin. Through comprehensive ablation studies, we demonstrate that our method not only maximizes the utility of preference data but also mitigates the issue of unlearning, demonstrating its broad effectiveness beyond mere data expansion. Our code is available at https://github.com/shenao-zhang/reward-augmented-preference.
arxiv情報
| 著者 | Shenao Zhang,Zhihan Liu,Boyi Liu,Yufeng Zhang,Yingxiang Yang,Yongfei Liu,Liyu Chen,Tao Sun,Zhaoran Wang |
| 発行日 | 2025-05-02 01:10:28+00:00 |
| arxivサイト | arxiv_id(pdf) |