Teaching Language Models to Self-Improve through Interactive Demonstrations

要約

大規模言語モデル (LLM) が自身の出力の分析と修正を促すことで可能になる自己改善能力は、最近の研究で大きな関心を集めています。
ただし、この機能は存在せず、小規模なモデルでは学習が難しいことがわかっているため、最先端の LLM と、よりコスト効率が高く高速な LLM との間のパフォーマンスのギャップが拡大します。
このギャップを減らすために、小規模なモデルにそのような自己改善能力を与えるトレーニング アルゴリズムである TriPosT を導入し、私たちのアプローチにより LLaMA-7b の数学および推論タスクのパフォーマンスを最大 7.13% 向上させることができることを示します。
これまでの研究とは対照的に、私たちは小規模なモデルを使用して LLM と対話し、そのモデル自体の世代に関するフィードバックと改善を収集することでこれを実現しました。
次に、このエクスペリエンスを再生して、小さなモデルをトレーニングします。
4 つの数学および推論データセットに関する実験では、小規模モデルのパフォーマンスを向上させるには、間違いから学び、それを修正するというインタラクティブなエクスペリエンスが重要であることがわかりました。

要約(オリジナル)

The self-improving ability of large language models (LLMs), enabled by prompting them to analyze and revise their own outputs, has garnered significant interest in recent research. However, this ability has been shown to be absent and difficult to learn for smaller models, thus widening the performance gap between state-of-the-art LLMs and more cost-effective and faster ones. To reduce this gap, we introduce TriPosT, a training algorithm that endows smaller models with such self-improvement ability, and show that our approach can improve a LLaMA-7b’s performance on math and reasoning tasks by up to 7.13%. In contrast to prior work, we achieve this by using the smaller model to interact with LLMs to collect feedback and improvements on its own generations. We then replay this experience to train the small model. Our experiments on four math and reasoning datasets show that the interactive experience of learning from and correcting its own mistakes is crucial for small models to improve their performance.

arxiv情報

著者 Xiao Yu,Baolin Peng,Michel Galley,Jianfeng Gao,Zhou Yu
発行日 2024-03-31 18:12:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク