要約
コンテキスト内学習(ICL)は、NLPタスクに大きな言語モデル(LLMS)の使用を変換し、微調ューせずにラベルの付いた例を条件付けすることにより、少数のショット学習を可能にしました。
その有効性にもかかわらず、ICLは特に挑戦的な例のために、エラーが発生しやすいです。
ICLのパフォーマンスを向上させることを目的として、自己修正による分類の精度を高めることを目的とした、グラウンドトゥルース補正とともにモデルの誤った予測をプロンプトに組み込んだアプローチは、是正内のコンテキスト学習(CICL)を提案します。
ただし、私たちの仮説に反して、テキスト分類タスクに関する広範な実験は、CICLが標準ICLを一貫して低下させ、プロンプトの補正の割合としてパフォーマンスが低下することを示しています。
我々の調査結果は、CICLが予測を改善するのではなく、モデルのタスク理解を混乱させることにより混乱をもたらすことを示しています。
さらに、標準のICLでより困難な例を提示してもパフォーマンスが向上しないことがわかり、難易度だけが効果的な選択の信頼できる基準ではないことを示唆しています。
これらの否定的な結果を提示することにより、LLMSにおける自己保護メカニズムの限界に関する重要な洞察を提供し、将来の研究の方向性を提供します。
要約(オリジナル)
In-context learning (ICL) has transformed the use of large language models (LLMs) for NLP tasks, enabling few-shot learning by conditioning on labeled examples without finetuning. Despite its effectiveness, ICL is prone to errors, especially for challenging examples. With the goal of improving the performance of ICL, we propose corrective in-context learning (CICL), an approach that incorporates a model’s incorrect predictions alongside ground truth corrections into the prompt, aiming to enhance classification accuracy through self-correction. However, contrary to our hypothesis, extensive experiments on text classification tasks demonstrate that CICL consistently underperforms standard ICL, with performance degrading as the proportion of corrections in the prompt increases. Our findings indicate that CICL introduces confusion by disrupting the model’s task understanding, rather than refining its predictions. Additionally, we observe that presenting harder examples in standard ICL does not improve performance, suggesting that example difficulty alone may not be a reliable criterion for effective selection. By presenting these negative results, we provide important insights into the limitations of self-corrective mechanisms in LLMs and offer directions for future research.
arxiv情報
著者 | Mario Sanz-Guerrero,Katharina von der Wense |
発行日 | 2025-03-20 10:39:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google