要約
大規模言語モデル(LLM)を用いたパーソナライズされたインタラクションに対する要求の高まりから、ユーザーの意見や嗜好を正確かつ効率的に識別できる方法論が求められている。検索拡張は、微調整によるコストをかけずに膨大な数のユーザーに対応できるため、効果的な戦略として浮上している。しかし、既存の研究は、検索段階の強化に主眼を置いており、パーソナライゼーションなどのタスクにとって重要な側面であるデータベースの表現の最適化については、限られた研究しか行っていない。本研究では、LLMカスタマイズの文脈で、よりデータ効率の高い検索を行うために、データをどのように表現すればよいかに焦点を当て、新しい角度からこの問題を検討する。この課題に取り組むため、タスクコンテキストをまたがる汎化を改善するための階層的構築プロセスと、ユーザー間の知識ギャップを効果的に埋めるための協調的改良から構成される、シンプルかつ効果的なフレームワークであるPersona-DBを紹介する。応答予測の評価において、Persona-DBは、検索サイズを大幅に削減しながら精度を維持する優れたコンテキスト効率を示し、これは、履歴が豊富であったりコンテキストウィンドウが限られていたりするシナリオにおいて重要な利点となる。また、我々の実験では、ユーザが極めて疎なデータを持つコールドスタート・シナリオにおいて、10%以上の顕著な改善が見られました。さらに、我々の分析により、検索能力が拡大するにつれて、協調的知識の重要性が増すことが明らかになった。
要約(オリジナル)
The increasing demand for personalized interactions with large language models (LLMs) calls for methodologies capable of accurately and efficiently identifying user opinions and preferences. Retrieval augmentation emerges as an effective strategy, as it can accommodate a vast number of users without the costs from fine-tuning. Existing research, however, has largely focused on enhancing the retrieval stage and devoted limited exploration toward optimizing the representation of the database, a crucial aspect for tasks such as personalization. In this work, we examine the problem from a novel angle, focusing on how data can be better represented for more data-efficient retrieval in the context of LLM customization. To tackle this challenge, we introduce Persona-DB, a simple yet effective framework consisting of a hierarchical construction process to improve generalization across task contexts and collaborative refinement to effectively bridge knowledge gaps among users. In the evaluation of response prediction, Persona-DB demonstrates superior context efficiency in maintaining accuracy with a significantly reduced retrieval size, a critical advantage in scenarios with extensive histories or limited context windows. Our experiments also indicate a marked improvement of over 10% under cold-start scenarios, when users have extremely sparse data. Furthermore, our analysis reveals the increasing importance of collaborative knowledge as the retrieval capacity expands.
arxiv情報
著者 | Chenkai Sun,Ke Yang,Revanth Gangi Reddy,Yi R. Fung,Hou Pong Chan,Kevin Small,ChengXiang Zhai,Heng Ji |
発行日 | 2025-02-03 00:23:45+00:00 |
arxivサイト | arxiv_id(pdf) |