Chain of Hindsight Aligns Language Models with Feedback

要約

人間の好みから学ぶことは、言語モデルが人間の役に立ち、人間や社会の価値観に沿ったものとなるために重要である。先行研究では、人間のフィードバックから学習して、指示を理解し従うことで、目覚ましい成功を収めている。しかし、これらの手法は、人間のアノテーターが好むモデル世代を厳選しているため、データの利用効率が悪く、一般的に適用が困難であるか、報酬関数や強化学習に依存しており、報酬関数が不完全で最適化が極めて困難であるかのいずれかである。本研究では、最適化が容易で、極性に関係なくあらゆる形態のフィードバックから学習できる、新しい手法「後知恵の連鎖」を提案する。我々のアイデアは、人間が言語という形で提示される広範なフィードバックからどのように学習するかにヒントを得ている。私たちは、あらゆる種類のフィードバックを文章に変換し、それをモデルの微調整に使用することで、言語モデルの言語理解能力を利用することができます。モデルの世代とフィードバックの組み合わせで、モデルを条件付ける。そうすることで、モデルはフィードバックに基づいて出力を生成するように訓練され、モデルはネガティブな属性やエラーを識別して修正することを学習することができます。本手法を大規模な言語モデルに適用したところ、Chain of Hindsightは、言語モデルを人間の好みに合わせるという点で、従来の方法を大きく上回ることが確認されました。要約と対話のタスクで顕著な改善が見られ、我々のアプローチは人間の評価で顕著に好まれていることが確認された。

要約(オリジナル)

Learning from human preferences is important for language models to be helpful and useful for humans, and to align with human and social values. Prior work have achieved remarkable successes by learning from human feedback to understand and follow instructions. Nonetheless, these methods are either founded on hand-picked model generations that are favored by human annotators, rendering them ineffective in terms of data utilization and challenging to apply in general, or they depend on reward functions and reinforcement learning, which are prone to imperfect reward function and extremely challenging to optimize. In this work, we propose a novel technique, Chain of Hindsight, that is easy to optimize and can learn from any form of feedback, regardless of its polarity. Our idea is inspired by how humans learn from extensive feedback presented in the form of languages. We convert all types of feedback into sentences, which are then used to fine-tune the model, allowing us to take advantage of the language comprehension capabilities of language models. We condition the model on a sequence of model generations paired with feedback. By doing so, models are trained to generate outputs based on feedback, and models can learn to identify and correct negative attributes or errors. Applying our method to large language models, we observed that Chain of Hindsight significantly surpasses previous methods in aligning language models with human preferences. We observed significant improvements on summarization and dialogue tasks and our approach is markedly preferred in human evaluations.

arxiv情報

著者 Hao Liu,Carmelo Sferrazza,Pieter Abbeel
発行日 2023-03-05 08:31:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.LG パーマリンク