要約
人間のフィードバック(RLHF)からの強化学習は、言語モデル(LM)アライメントの主要なアプローチとなっています。
その中心では、RLHFは好みの最適化のためにマージンベースの損失を使用し、優先応答と分散応答の違いによってのみ理想的なLMの動作を指定します。
このホワイトペーパーでは、マージンベースの方法の一般的な落とし穴、つまり優先および分散した応答に関する理想的なLMの挙動の個別に特徴的な落とし穴を特定します。これは、マージンが増加するにつれて2つの意図しない結果をもたらします。
(2)優先応答の確率は、これらの応答が理想的であっても減少する場合があります。
これらの問題のある行動の背後にある理由を分かります:マージンベースの損失は、分配された勾配の勾配に対する優先確率の変化を結びつけ、その逆も同様であり、希望する確率が減少し、したがって、両方の確率で同期された増加または減少を引き起こすことがよくあります。
マージンベースの目的に固有のこの効果、グラデーションエンタングルメントと呼ばれます。
正式には、勾配エンタングルメントが懸念される一般的なマージンベースのアライメント目標の条件を導き出します。優先された勾配と分散した対数プロビリティの勾配の内部積は、個々の勾配規範に比べて大きくなります。
言語モデルを調整するときにそのような内部製品が大きくなる理由を理論的に調査し、調査結果を経験的に検証します。
私たちのフレームワークの経験的意味は、さまざまな優先最適化アルゴリズムのトレーニングダイナミクスの重要な違いを説明し、潜在的なアルゴリズムがマージンベースの方法の特徴的な問題を軽減し、それによって言語モデルの調整を改善することを示唆することにまで及びます。
要約(オリジナル)
Reinforcement Learning from Human Feedback (RLHF) has become the predominant approach for language model (LM) alignment. At its core, RLHF uses a margin-based loss for preference optimization, specifying ideal LM behavior only by the difference between preferred and dispreferred responses. In this paper, we identify a common pitfall of margin-based methods — the under-specification of ideal LM behavior on preferred and dispreferred responses individually, which leads to two unintended consequences as the margin increases: (1) The probability of dispreferred (e.g., unsafe) responses may increase, resulting in potential safety alignment failures. (2) The probability of preferred responses may decrease, even when those responses are ideal. We demystify the reasons behind these problematic behaviors: margin-based losses couple the change in the preferred probability to the gradient of the dispreferred one, and vice versa, often preventing the preferred probability from increasing while the dispreferred one decreases, and thus causing a synchronized increase or decrease in both probabilities. We term this effect, inherent in margin-based objectives, gradient entanglement. Formally, we derive conditions for general margin-based alignment objectives under which gradient entanglement becomes concerning: the inner product of the gradients of preferred and dispreferred log-probabilities is large relative to the individual gradient norms. We theoretically investigate why such inner products can be large when aligning language models and empirically validate our findings. Empirical implications of our framework extend to explaining important differences in the training dynamics of various preference optimization algorithms, and suggesting potential algorithm designs to mitigate the under-specification issue of margin-based methods and thereby improving language model alignment.
arxiv情報
著者 | Hui Yuan,Yifan Zeng,Yue Wu,Huazheng Wang,Mengdi Wang,Liu Leqi |
発行日 | 2025-04-22 15:20:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google