要約
デモンストレーションの順序付けは、コンテキスト内学習 (ICL) の重要な戦略であり、大規模言語モデル (LLM) のパフォーマンスに大きな影響を与える可能性があります。
ただし、現在の順序付けアプローチのほとんどでは、追加の知識と類似性の計算が必要です。
私たちは、ICL のシンプルだが効果的なデモンストレーション順序付け方法である少数ショット インコンテキスト カリキュラム学習 (ICCL) を提唱します。これは、推論プロセス中にプロンプト デモンストレーションの複雑さを徐々に増加させることを意味します。
次に、ICCL の有効性、LLM の ICCL 機能の形成メカニズム、および被験者の順序付けの影響を議論する 3 つの実験を計画します。
実験結果は、命令チューニング段階で開発された ICCL がオープンソース LLM に有効であることを示しています。
さらに、LLM はデモンストレーションの難易度を識別する能力が人間に比べて弱いです。
コードは https://github.com/61peng/curri_learning でリリースされます。
要約(オリジナル)
Demonstration ordering, which is an important strategy for in-context learning (ICL), can significantly affects the performance of large language models (LLMs). However, most of the current approaches of ordering require additional knowledge and similarity calculation. We advocate the few-shot in-context curriculum learning (ICCL), a simple but effective demonstration ordering method for ICL, which implies gradually increasing the complexity of prompt demonstrations during the inference process. Then we design three experiments to discuss the effectiveness of ICCL, the formation mechanism of LLM’s ICCL capability, and the impact of ordering subjects. Experimental results demonstrate that ICCL, developed during the instruction-tuning stage, is effective for open-source LLMs. Moreover, LLMs exhibit a weaker capacity compared to humans in discerning the difficulty levels of demonstrations. We release our code at https://github.com/61peng/curri_learning.
arxiv情報
著者 | Yinpeng Liu,Jiawei Liu,Xiang Shi,Qikai Cheng,Wei Lu |
発行日 | 2024-02-16 14:55:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google