要約
言語モデルの最近の設定調整アルゴリズムは有望な結果を示していますが、収束を成功させるには教師あり微調整 (SFT) が引き続き不可欠です。
この論文では、選好の調整という文脈における SFT の重要な役割を研究し、選好に合わせた SFT には不利な生成スタイルに対するわずかなペナルティで十分であることを強調します。
この基盤に基づいて、当社は、単純で革新的な参照モデルを必要としないモノリシック オッズ比優先最適化アルゴリズム ORPO を導入し、追加の優先調整フェーズの必要性を排除します。
私たちは、125M から 7B までのさまざまなサイズにわたって、SFT 中に有利なスタイルと不利なスタイルを対比させるには、オッズ比が賢明な選択であることを経験的にも理論的にも示しています。
具体的には、UltraFeedback の ORPO を使用して Phi-2 (2.7B)、Llama-2 (7B)、および Mistral (7B) を微調整するだけで、7B および 13B を超える最先端の言語モデルのパフォーマンスを上回ります。
パラメータ: $\text{AlpacaEval}_{2.0}$ で最大 12.20%、MT-Bench では 7.32 を達成 (図 1 と 12 に示す)。Mistral-ORPO-$\alpha$ のコードとモデルのチェックポイントをリリースします (
7B) およびミストラル-ORPO-$\beta$ (7B)。
要約(オリジナル)
While recent preference alignment algorithms for language models have demonstrated promising results, supervised fine-tuning (SFT) remains imperative for achieving successful convergence. In this paper, we study the crucial role of SFT within the context of preference alignment, emphasizing that a minor penalty for the disfavored generation style is sufficient for preference-aligned SFT. Building on this foundation, we introduce a straightforward and innovative reference model-free monolithic odds ratio preference optimization algorithm, ORPO, eliminating the necessity for an additional preference alignment phase. We demonstrate, both empirically and theoretically, that the odds ratio is a sensible choice for contrasting favored and disfavored styles during SFT across the diverse sizes from 125M to 7B. Specifically, fine-tuning Phi-2 (2.7B), Llama-2 (7B), and Mistral (7B) with ORPO on the UltraFeedback alone surpasses the performance of state-of-the-art language models with more than 7B and 13B parameters: achieving up to 12.20% on $\text{AlpacaEval}_{2.0}$ and 7.32 in MT-Bench, as shown in Figures 1 and 12. We release code and model checkpoints for Mistral-ORPO-$\alpha$ (7B) and Mistral-ORPO-$\beta$ (7B).
arxiv情報
著者 | Jiwoo Hong,Noah Lee,James Thorne |
発行日 | 2024-03-12 14:34:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google