Grimoire is All You Need for Enhancing Large Language Models

要約

インコンテキスト学習 (ICL) は、少数のサンプルのセットを提供することで、特定のタスクにおける大規模な言語モデルのパフォーマンスを向上させるための重要な方法の 1 つです。
ただし、さまざまなタイプのモデルの ICL 機能は、モデル アーキテクチャ、学習データの量、パラメーターのサイズなどの要因により大幅に異なります。
一般に、モデルのパラメーター サイズが大きくなり、学習データが広範囲になるほど、その ICL 機能は強力になります。
この論文では、強力な言語モデルを使用して例から学習し、その後、これらの学習したスキルを要約して、推論と適用のために弱い言語モデルに転送することを含む手法 SLEICL を提案します。
これにより、ICL の安定性と有効性が保証されます。
弱い言語モデルがプロンプトの例から直接学習できるようにする場合と比較して、SLEICL はこれらのモデルに対する ICL の難易度を軽減します。
5 つの言語モデルを含む最大 8 つのデータセットに対して行われた私たちの実験は、弱い言語モデルが、SLEICL メソッドを使用して独自のゼロショットまたは少数ショット機能よりも一貫した改善を達成することを実証しました。
一部の弱い言語モデルでは、SLEICL を使用することで GPT4-1106 プレビュー (ゼロショット) のパフォーマンスを上回ることさえあります。

要約(オリジナル)

In-context Learning (ICL) is one of the key methods for enhancing the performance of large language models on specific tasks by providing a set of few-shot examples. However, the ICL capability of different types of models shows significant variation due to factors such as model architecture, volume of learning data, and the size of parameters. Generally, the larger the model’s parameter size and the more extensive the learning data, the stronger its ICL capability. In this paper, we propose a method SLEICL that involves learning from examples using strong language models and then summarizing and transferring these learned skills to weak language models for inference and application. This ensures the stability and effectiveness of ICL. Compared to directly enabling weak language models to learn from prompt examples, SLEICL reduces the difficulty of ICL for these models. Our experiments, conducted on up to eight datasets with five language models, demonstrate that weak language models achieve consistent improvement over their own zero-shot or few-shot capabilities using the SLEICL method. Some weak language models even surpass the performance of GPT4-1106-preview (zero-shot) with the aid of SLEICL.

arxiv情報

著者 Ding Chen,Shichao Song,Qingchen Yu,Zhiyu Li,Wenjin Wang,Feiyu Xiong,Bo Tang
発行日 2024-01-10 08:30:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク