要約
大規模な言語モデル(LLM)のパーソナライズは、ユーザーエクスペリエンスを向上させるテーラードインタラクションを提供するために不可欠です。
多くの既存のパーソナライズ方法には、各ユーザーにLLMを微調整する必要があり、広範な採用のためにそれらを法外に高価にします。
検索ベースのアプローチは、より計算効率の良い代替品を提供しますが、すべてのユーザーが一貫して利用できない大規模で高品質のデータセットに依存しています。
この課題に対処するために、(1)自己生成された個人選好データと(2)迅速で費用対効果の高いパーソナライズを可能にするために(2)表現編集を使用するスケーラブルで効率的なパーソナライズアプローチであるChameleonを提案します。
ランプパーソナライゼーションベンチマークのものを含むさまざまなタスクに関する実験は、Chameleonがモデルを個人的な好みに効率的に適応させ、命令チューニングモデルを改善し、2つのモデルアーキテクチャで平均40%の2つのパーソナライズベースラインを上回ることを示しています。
要約(オリジナル)
Personalizing large language models (LLMs) is essential for delivering tailored interactions that improve user experience. Many existing personalization methods require fine-tuning LLMs for each user, rendering them prohibitively expensive for widespread adoption. Although retrieval-based approaches offer a more compute-efficient alternative, they still depend on large, high-quality datasets that are not consistently available for all users. To address this challenge, we propose CHAMELEON, a scalable and efficient personalization approach that uses (1) self-generated personal preference data and (2) representation editing to enable quick and cost-effective personalization. Our experiments on various tasks, including those from the LaMP personalization benchmark, show that CHAMELEON efficiently adapts models to personal preferences, improving instruction-tuned models and outperforms two personalization baselines by an average of 40% across two model architectures.
arxiv情報
著者 | Yijing Zhang,Dyah Adila,Changho Shin,Frederic Sala |
発行日 | 2025-03-05 18:59:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google