要約
大規模な言語モデル(LLM)ベースのユーザーエージェントは、ユーザーインタラクションをシミュレートすることにより、推奨システムを改善するための強力なツールとして浮上しています。
ただし、既存の方法は、非効率的なメモリ構造によるクロスドメインシナリオと闘い、無関係な情報保持と人気などの社会的影響要因を説明できないことにつながります。
これらの制限に対処するために、デュアルレイヤーメモリアーキテクチャとドメイン固有の好みを効果的にフィルタリングする2段階の融合メカニズムを特徴とする新しいフレームワークであるAgentCF ++を紹介します。
さらに、共有メモリを持つ利益団体を提案し、モデルが同様の関心を持つユーザーに対する人気トレンドの影響をキャプチャできるようにします。
複数のクロスドメインデータセットでの広範な実験を通じて、AgentCF ++はベースラインモデルよりも優れたパフォーマンスを示し、推奨システムのユーザー行動シミュレーションを改善する効果を強調しています。
私たちのコードは、https://anonymous.4open.science/r/agentcf-plusで入手できます。
要約(オリジナル)
Large Language Model (LLM)-based user agents have emerged as a powerful tool for improving recommender systems by simulating user interactions. However, existing methods struggle with cross-domain scenarios due to inefficient memory structures, leading to irrelevant information retention and failure to account for social influence factors such as popularity. To address these limitations, we introduce AgentCF++, a novel framework featuring a dual-layer memory architecture and a two-step fusion mechanism to filter domain-specific preferences effectively. Additionally, we propose interest groups with shared memory, allowing the model to capture the impact of popularity trends on users with similar interests. Through extensive experiments on multiple cross-domain datasets, AgentCF++ demonstrates superior performance over baseline models, highlighting its effectiveness in refining user behavior simulation for recommender systems. Our code is available at https://anonymous.4open.science/r/AgentCF-plus.
arxiv情報
著者 | Jiahao Liu,Shengkang Gu,Dongsheng Li,Guangping Zhang,Mingzhe Han,Hansu Gu,Peng Zhang,Tun Lu,Li Shang,Ning Gu |
発行日 | 2025-02-19 16:02:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google