Sub-SA: Strengthen In-context Learning via Submodular Selective Annotation

要約

インコンテキスト学習 (ICL) は、大規模言語モデル (LLM) の予測のプロンプトとしてインコンテキストの例を活用します。
これらのプロンプトは、優れたパフォーマンスを達成するために重要な役割を果たします。
ただし、ラベル付きサンプルの大きなプールから適切なプロンプトを選択するには、多くの場合、多大な注釈コストがかかります。
この課題に対処するために、サブモジュールベースの選択的アノテーション手法である Sub-SA (Submodular Selective Annotation) を提案します。
Sub-SA の目的は、コンテキスト内の例の品質を向上させ、選択プロセスの時間消費を最小限に抑えながら、アノテーションのコストを削減することです。
Sub-SA では、アノテーションのための効果的なサブセットの選択を容易にし、理論的な観点から単調性とサブモジュール性の特性を実証するサブモジュール関数を設計します。
具体的には、報酬期間とペナルティ期間にそれぞれ起因するラベルなしデータセットの多様性と代表性のバランスを高めるために、RPR (報酬とペナルティの正則化) を提案します。
その結果、アノテーションの選択は、サブモジュラー関数に基づくシンプルかつ効果的な貪欲検索アルゴリズムで効果的に対処できます。
最後に、類似性プロンプト検索を適用して、ICL の例を取得します。

要約(オリジナル)

In-context learning (ICL) leverages in-context examples as prompts for the predictions of Large Language Models (LLMs). These prompts play a crucial role in achieving strong performance. However, the selection of suitable prompts from a large pool of labeled examples often entails significant annotation costs. To address this challenge, we propose Sub-SA (Submodular Selective Annotation), a submodule-based selective annotation method. The aim of Sub-SA is to reduce annotation costs while improving the quality of in-context examples and minimizing the time consumption of the selection process. In Sub-SA, we design a submodular function that facilitates effective subset selection for annotation and demonstrates the characteristics of monotonically and submodularity from the theoretical perspective. Specifically, we propose RPR (Reward and Penalty Regularization) to better balance the diversity and representativeness of the unlabeled dataset attributed to a reward term and a penalty term, respectively. Consequently, the selection for annotations can be effectively addressed with a simple yet effective greedy search algorithm based on the submodular function. Finally, we apply the similarity prompt retrieval to get the examples for ICL.

arxiv情報

著者 Jian Qian,Miao Sun,Sifan Zhou,Ziyu Zhao,Ruizhi Hun,Patrick Chiang
発行日 2024-09-13 06:57:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク