Towards Understanding In-Context Learning with Contrastive Demonstrations and Saliency Maps

要約

私たちは、大規模言語モデル (LLM) のインコンテキスト学習 (ICL) パフォーマンスにおけるさまざまなデモンストレーション コンポーネントの役割を調査します。
具体的には、特にこれらが変更または混乱した場合の、グラウンドトゥルースのラベル、入力分布、および補足説明の影響を調査します。
私たちは、これらの要素が ICL にどのように影響するかについて、さまざまな結果を提供する以前の研究に基づいて構築しています。
これらの疑問を調査するために、説明可能な NLP (XNLP) 手法を採用し、定性分析と定量分析の両方に対照的な実証の顕著性マップを利用します。
私たちの調査結果では、グラウンド トゥルース ラベルを反転すると顕著性に大きな影響を与えますが、それは大規模な LLM でより顕著であることが明らかになりました。
詳細レベルでの入力分布の分析により、センチメント分析タスクでセンチメントを示す用語を中立的な用語に変更しても、グラウンドトゥルースのラベルを変更するほど大きな影響を与えないことが明らかになりました。
最後に、ICL のパフォーマンス向上における補足説明の有効性はタスクに依存し、記号推論タスクと比較して感情分析タスクで見られるメリットは限られていることがわかりました。
これらの洞察は、LLM の機能を理解し、効果的なデモンストレーションの開発を導くために重要であり、ChatGPT などのアプリケーションでの LLM の使用の増加を考慮すると、その関連性はますます高まっています。
私たちの研究コードは https://github.com/paihengxu/XICL で公開されています。

要約(オリジナル)

We investigate the role of various demonstration components in the in-context learning (ICL) performance of large language models (LLMs). Specifically, we explore the impacts of ground-truth labels, input distribution, and complementary explanations, particularly when these are altered or perturbed. We build on previous work, which offers mixed findings on how these elements influence ICL. To probe these questions, we employ explainable NLP (XNLP) methods and utilize saliency maps of contrastive demonstrations for both qualitative and quantitative analysis. Our findings reveal that flipping ground-truth labels significantly affects the saliency, though it’s more noticeable in larger LLMs. Our analysis of the input distribution at a granular level reveals that changing sentiment-indicative terms in a sentiment analysis task to neutral ones does not have as substantial an impact as altering ground-truth labels. Finally, we find that the effectiveness of complementary explanations in boosting ICL performance is task-dependent, with limited benefits seen in sentiment analysis tasks compared to symbolic reasoning tasks. These insights are critical for understanding the functionality of LLMs and guiding the development of effective demonstrations, which is increasingly relevant in light of the growing use of LLMs in applications such as ChatGPT. Our research code is publicly available at https://github.com/paihengxu/XICL.

arxiv情報

著者 Zongxia Li,Paiheng Xu,Fuxiao Liu,Hyemi Song
発行日 2023-07-11 07:03:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク