Dr.ICL: Demonstration-Retrieved In-context Learning

要約

大規模言語モデル (LLM) に、モデルのパラメーターを調整するのではなく、数ショットのデモンストレーションでタスクを実行するよう教えるインコンテキスト学習 (ICL) は、LLM を使用するための強力なパラダイムとして浮上しています。
初期の研究では主に、すべてのテスト クエリに対して固定またはランダムなデモンストレーションのセットを使用していましたが、最近の研究では、利用可能なデモンストレーションのプールから入力に対して意味的に類似したデモンストレーションを取得すると、パフォーマンスが向上することが示唆されています。
この研究は、BM25 のような単純な単語重複類似性測定でも、ランダムに選択されたデモンストレーションよりも優れていることを実証することにより、検索ベースの ICL アプローチの適用可能性を拡張します。
さらに、検索ベースの ICL の成功を、命令を微調整した LLM および思考連鎖 (CoT) プロンプトに拡張します。
命令で微調整された LLM の場合、モデルはトレーニング時にトレーニング データをすでに認識していますが、テスト時にトレーニング データからデモンストレーションを取得すると、デモンストレーションを使用しないかランダムなデモンストレーションを使用する場合と比較して、より良い結果が得られることがわかりました。
最後になりましたが、既製のレトリバーよりも優れたパフォーマンスを発揮する、タスク固有のデモンストレーション レトリバーをトレーニングします。

要約(オリジナル)

In-context learning (ICL), teaching a large language model (LLM) to perform a task with few-shot demonstrations rather than adjusting the model parameters, has emerged as a strong paradigm for using LLMs. While early studies primarily used a fixed or random set of demonstrations for all test queries, recent research suggests that retrieving semantically similar demonstrations to the input from a pool of available demonstrations results in better performance. This work expands the applicability of retrieval-based ICL approaches by demonstrating that even simple word-overlap similarity measures such as BM25 outperform randomly selected demonstrations. Furthermore, we extend the success of retrieval-based ICL to instruction-finetuned LLMs as well as Chain-of-Thought (CoT) prompting. For instruction-finetuned LLMs, we find that although a model has already seen the training data at training time, retrieving demonstrations from the training data at test time yields better results compared to using no demonstrations or random demonstrations. Last but not least, we train a task-specific demonstration retriever that outperforms off-the-shelf retrievers.

arxiv情報

著者 Man Luo,Xin Xu,Zhuyun Dai,Panupong Pasupat,Mehran Kazemi,Chitta Baral,Vaiva Imbrasaite,Vincent Y Zhao
発行日 2023-05-23 14:55:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク