要約
最近の大規模言語モデル (LLM) の出現は、人間と AI の相互作用の新時代の到来を告げています。
Chat-GPT とその後継モデルに代表されるこれらの洗練されたモデルは、言語理解において驚くべき能力を示しています。
ただし、これらの LLM は急激な成長を遂げているため、これらのモデルのパーソナライゼーションは依然として十分に研究されていない重要な側面です。
GPT-3 などの大規模な基盤モデルは、幅広いタスクやユーザーにサービスを提供するユニバーサル モデルの作成に重点を置いています。
このアプローチはモデルの一般化機能を強調し、ユーザーを個別の個人としてではなく集合体として扱います。
この画一的なアプローチは多くの一般的な用途には実用的ですが、多くの場合、人間の多様性と個人のニーズが織り成す豊かなタペストリーに対応できません。
この問題を調査するために、ユーザーのパーソナライゼーションのための NLP モデルを構築および評価するための新しいデータセットである PEFT-U ベンチマークを紹介します。
\datasetname{} は、多様で個別の表現を含む一連のユーザー中心のタスクで構成されており、同じ入力に対してユーザーの好みが異なる可能性があります。
PEFT-U を使用して、ユーザー中心の多様なタスクのコンテキストでユーザー固有の好みに対応するために LLM を効率的にパーソナライズするという課題を検討します。
要約(オリジナル)
The recent emergence of Large Language Models (LLMs) has heralded a new era of human-AI interaction. These sophisticated models, exemplified by Chat-GPT and its successors, have exhibited remarkable capabilities in language understanding. However, as these LLMs have undergone exponential growth, a crucial dimension that remains understudied is the personalization of these models. Large foundation models such as GPT-3 etc. focus on creating a universal model that serves a broad range of tasks and users. This approach emphasizes the model’s generalization capabilities, treating users as a collective rather than as distinct individuals. While practical for many common applications, this one-size-fits-all approach often fails to address the rich tapestry of human diversity and individual needs. To explore this issue we introduce the PEFT-U Benchmark: a new dataset for building and evaluating NLP models for user personalization. \datasetname{} consists of a series of user-centered tasks containing diverse and individualized expressions where the preferences of users can potentially differ for the same input. Using PEFT-U, we explore the challenge of efficiently personalizing LLMs to accommodate user-specific preferences in the context of diverse user-centered tasks.
arxiv情報
著者 | Christopher Clarke,Yuzhao Heng,Lingjia Tang,Jason Mars |
発行日 | 2024-07-25 14:36:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google