PerPLM: Personalized Fine-tuning of Pretrained Language Models via Writer-specific Intermediate Learning and Prompts

要約

単語やフレーズの意味は、それらが使用される場所 (文脈) だけでなく、それらを使用する人 (書き手) にも依存します。
事前トレーニング済み言語モデル (PLM) はコンテキストをキャプチャするための強力なツールですが、通常は、さまざまなライター間で汎用的に使用できるように事前トレーニングされ、微調整されています。
この研究は、特定のライターに合わせて PLM を微調整することで、テキスト理解タスクの精度を向上させることを目的としています。
私たちは、ターゲットライターからのプレーンテキストのみをパーソナライズに利用できる一般的な設定に焦点を当てています。
さまざまなユーザー向けに PLM の複数のコピーを微調整して保存するコストを回避するために、統合 PLM をパーソナライズするためのライター固有のプロンプトの使用を徹底的に検討します。
これらのプロンプトの設計と評価は未開発の領域であるため、この設定で可能なさまざまなタイプのプロンプトを紹介し、比較します。
プロンプトベースのパーソナライズされた微調整の可能性を最大限に高めるために、マスクされた言語モデリングに基づいて、ライターのテキストのタスクに依存しない特性を抽出するパーソナライズされた中間学習を提案します。
複数のタスク、データセット、PLM を使用した実験により、さまざまなプロンプトの性質と中間学習アプローチの有効性が明らかになりました。

要約(オリジナル)

The meanings of words and phrases depend not only on where they are used (contexts) but also on who use them (writers). Pretrained language models (PLMs) are powerful tools for capturing context, but they are typically pretrained and fine-tuned for universal use across different writers. This study aims to improve the accuracy of text understanding tasks by personalizing the fine-tuning of PLMs for specific writers. We focus on a general setting where only the plain text from target writers are available for personalization. To avoid the cost of fine-tuning and storing multiple copies of PLMs for different users, we exhaustively explore using writer-specific prompts to personalize a unified PLM. Since the design and evaluation of these prompts is an underdeveloped area, we introduce and compare different types of prompts that are possible in our setting. To maximize the potential of prompt-based personalized fine-tuning, we propose a personalized intermediate learning based on masked language modeling to extract task-independent traits of writers’ text. Our experiments, using multiple tasks, datasets, and PLMs, reveal the nature of different prompts and the effectiveness of our intermediate learning approach.

arxiv情報

著者 Daisuke Oba,Naoki Yoshinaga,Masashi Toyoda
発行日 2023-09-14 14:03:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク