TGDPO: Harnessing Token-Level Reward Guidance for Enhancing Direct Preference Optimization

要約

人間のフィードバックからの強化学習における最近の進歩により、きめ細かいトークンレベルの報酬モデルを使用すると、大規模な言語モデルの調整における近位政策最適化(PPO)のパフォーマンスが大幅に向上することが示されています。
ただし、DPOはシーケンスレベルの盗賊問題として定式化されているため、直接優先最適化(DPO)のガイダンスとしてこのようなトークンレベルの報酬を活用することは困難です。
この課題に対処するために、この作業は、シーケンスレベルのPPOをトークンレベルの近位ポリシー最適化問題のシーケンスに分解し、トークンレベルのPPOの問題をトークンレベルの報酬ガイダンスでフレーム化します。
取得した報酬とBradley-Terryモデルを使用して、この作業は、DPOのトークンレベルの報酬ガイダンスを備えた計算可能な損失関数のフレームワークを確立し、誘導されたDPO報酬に基づいて実用的な報酬ガイダンスを提案します。
この定式化により、異なるトークンは、それぞれの報酬に基づいて、参照ポリシーからさまざまな程度の逸脱を示すことができます。
実験結果は、私たちの方法がDPOよりも大幅なパフォーマンスの改善を達成し、MTベンチで最大7.5ポイント、Alpacaeval 2で6.2ポイント、アリーナハードで4.3ポイントの勝利率が得られることを示しています。
コードはhttps://github.com/dvlab-research/tgdpoで入手できます。

要約(オリジナル)

Recent advancements in reinforcement learning from human feedback have shown that utilizing fine-grained token-level reward models can substantially enhance the performance of Proximal Policy Optimization (PPO) in aligning large language models. However, it is challenging to leverage such token-level reward as guidance for Direct Preference Optimization (DPO), since DPO is formulated as a sequence-level bandit problem. To address this challenge, this work decomposes the sequence-level PPO into a sequence of token-level proximal policy optimization problems and then frames the problem of token-level PPO with token-level reward guidance, from which closed-form optimal token-level policy and the corresponding token-level reward can be derived. Using the obtained reward and Bradley-Terry model, this work establishes a framework of computable loss functions with token-level reward guidance for DPO, and proposes a practical reward guidance based on the induced DPO reward. This formulation enables different tokens to exhibit varying degrees of deviation from reference policy based on their respective rewards. Experiment results demonstrate that our method achieves substantial performance improvements over DPO, with win rate gains of up to 7.5 points on MT-Bench, 6.2 points on AlpacaEval 2, and 4.3 points on Arena-Hard. Code is available at https://github.com/dvlab-research/TGDPO.

arxiv情報

著者 Mingkang Zhu,Xi Chen,Zhongdao Wang,Bei Yu,Hengshuang Zhao,Jiaya Jia
発行日 2025-06-17 14:30:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク