PersonaAgent: When Large Language Model Agents Meet Personalization at Test Time

要約

大規模な言語モデル(LLM)エンパワーされたエージェントは最近、幅広いドメインとタスクで印象的な能力を示す高度なパラダイムとして浮上しています。
その可能性にもかかわらず、現在のLLMエージェントは、多くの場合、すべてのサイズのアプローチを採用しており、ユーザーのさまざまなニーズや好みに対応する柔軟性がありません。
この制限により、汎用性の高いパーソナライズタスクに対処するために設計された最初のパーソナライズされたLLMエージェントフレームワークであるPersonaagentを開発するようになります。
具体的には、PersonAagentは2つの相補的コンポーネントを統合します。エピソードおよびセマンティックメモリメカニズムを含むパーソナライズされたメモリモジュールです。
エージェントがユーザーに合わせたツールアクションを実行できるようにするパーソナライズされたアクションモジュール。
コアでは、ペルソナ(各ユーザーのユニークなシステムプロンプトとして定義)は仲介者として機能します。パーソナライズされたメモリからコントロールエージェントアクションに洞察を活用し、これらのアクションの結果はメモリを改良します。
フレームワークに基づいて、最新のNインタラクションをシミュレートしてペルソナプロンプトを最適化するテスト時間ユーザープレーファレンスアライメント戦略を提案し、シミュレートされた応答とグラウンドトゥルース応答の間のテキストの損失フィードバックを通じてリアルタイムユーザー優先アライメントを確保します。
実験的評価は、PersonAagentがアクション空間を効果的にパーソナライズするだけでなく、テスト時間の実際のアプリケーション中にスケーリングすることにより、他のベースライン方法を大幅に上回ることを示しています。
これらの結果は、テーラードされた動的なユーザーエクスペリエンスを提供する際のアプローチの実現可能性と可能性を強調しています。

要約(オリジナル)

Large Language Model (LLM) empowered agents have recently emerged as advanced paradigms that exhibit impressive capabilities in a wide range of domains and tasks. Despite their potential, current LLM agents often adopt a one-size-fits-all approach, lacking the flexibility to respond to users’ varying needs and preferences. This limitation motivates us to develop PersonaAgent, the first personalized LLM agent framework designed to address versatile personalization tasks. Specifically, PersonaAgent integrates two complementary components – a personalized memory module that includes episodic and semantic memory mechanisms; a personalized action module that enables the agent to perform tool actions tailored to the user. At the core, the persona (defined as unique system prompt for each user) functions as an intermediary: it leverages insights from personalized memory to control agent actions, while the outcomes of these actions in turn refine the memory. Based on the framework, we propose a test-time user-preference alignment strategy that simulate the latest n interactions to optimize the persona prompt, ensuring real-time user preference alignment through textual loss feedback between simulated and ground-truth responses. Experimental evaluations demonstrate that PersonaAgent significantly outperforms other baseline methods by not only personalizing the action space effectively but also scaling during test-time real-world applications. These results underscore the feasibility and potential of our approach in delivering tailored, dynamic user experiences.

arxiv情報

著者 Weizhi Zhang,Xinyang Zhang,Chenwei Zhang,Liangwei Yang,Jingbo Shang,Zhepei Wei,Henry Peng Zou,Zijie Huang,Zhengyang Wang,Yifan Gao,Xiaoman Pan,Lian Xiong,Jingguo Liu,Philip S. Yu,Xian Li
発行日 2025-06-06 17:29:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク