Parameter Efficient Tuning Allows Scalable Personalization of LLMs for Text Entry: A Case Study on Abbreviation Expansion

要約

略語の拡張は、入力量を制限し、言語モデルを使用して拡張を提案することにより、コミュニケーションを高速化するために使用される戦略です。
ここでは、特にユーザー データが小さい場合 (サンプル数が約 1000 個) の場合に、予測の関連性を高めるために、以前の会話に基づいて大規模言語モデル (LLM) の提案をパーソナライズする方法について説明します。
具体的には、省略された入力に対する拡張テキスト候補の微調整、プロンプト調整、検索拡張生成を比較します。
ALS を患う実際のユーザーに 8B パラメータ LLM を導入したケーススタディと、映画のキャラクターのパーソナライゼーションに関する実験では、(1) 一部のシナリオではカスタマイズが必要な可能性があり、プロンプトチューニングはそれらのシナリオによく一般化する、(2) 微調整ができることを示しています。
ドメイン内データ (わずか 600 サンプル) では、依然としていくらかの利点が見られますが、(3) 検索強化された少数ショットの選択も微調整を上回ります。
(4) パラメータの効率的なチューニングにより、効率的かつスケーラブルなパーソナライゼーションが可能になります。
プロンプトチューニングの場合、学習した「ソフトプロンプト」をユーザー関連の概念トークンに初期化すると、ランダムな初期化よりも精度が高くなることがわかりました。

要約(オリジナル)

Abbreviation expansion is a strategy used to speed up communication by limiting the amount of typing and using a language model to suggest expansions. Here we look at personalizing a Large Language Model’s (LLM) suggestions based on prior conversations to enhance the relevance of predictions, particularly when the user data is small (~1000 samples). Specifically, we compare fine-tuning, prompt-tuning, and retrieval augmented generation of expanded text suggestions for abbreviated inputs. Our case study with a deployed 8B parameter LLM on a real user living with ALS, and experiments on movie character personalization indicates that (1) customization may be necessary in some scenarios and prompt-tuning generalizes well to those, (2) fine-tuning on in-domain data (with as few as 600 samples) still shows some gains, however (3) retrieval augmented few-shot selection also outperforms fine-tuning. (4) Parameter efficient tuning allows for efficient and scalable personalization. For prompt-tuning, we also find that initializing the learned ‘soft-prompts’ to user relevant concept tokens leads to higher accuracy than random initialization.

arxiv情報

著者 Katrin Tomanek,Shanqing Cai,Subhashini Venugopalan
発行日 2023-12-21 22:52:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク