要約
最近、言語エージェントは、人間の行動や、レコメンデーション システムのユーザーとアイテムの相互作用をシミュレートするために使用されています。
ただし、現在の言語エージェントのシミュレーションはユーザーとアイテム間の関係を理解していないため、不正確なユーザー プロファイルや非効果的な推奨事項が発生します。
この研究では、ユーザーとアイテムの間の広範かつ信頼できる関係を含むナレッジ グラフ (KG) を推奨する場合の有用性を検討します。
私たちの重要な洞察は、KG 内のパスがユーザーとアイテム間の複雑な関係を捉え、ユーザーの好みの根本的な理由を引き出し、ユーザー プロファイルを充実させることができるということです。
この洞察を活用して、推奨システム用の言語エージェントと KG を統合するフレームワークである Knowledge Graph Enhanced Language Agents (KGLA) を提案します。
シミュレートされたレコメンデーション シナリオでは、ユーザーとアイテムを KG 内に配置し、KG パスを自然言語記述としてシミュレーションに統合します。
これにより、言語エージェントが相互に対話し、その対話の背後にある十分な理論的根拠を発見できるようになり、シミュレーションがより正確になり、現実世界のケースと一致するため、推奨パフォーマンスが向上します。
私たちの実験結果は、KGLA が以前の最良のベースライン手法と比較して、推奨パフォーマンスを大幅に向上させることを示しています (広く使用されている 3 つのベンチマークのうち、NDCG@1 が 33% ~ 95% 向上)。
要約(オリジナル)
Language agents have recently been used to simulate human behavior and user-item interactions for recommendation systems. However, current language agent simulations do not understand the relationships between users and items, leading to inaccurate user profiles and ineffective recommendations. In this work, we explore the utility of Knowledge Graphs (KGs), which contain extensive and reliable relationships between users and items, for recommendation. Our key insight is that the paths in a KG can capture complex relationships between users and items, eliciting the underlying reasons for user preferences and enriching user profiles. Leveraging this insight, we propose Knowledge Graph Enhanced Language Agents(KGLA), a framework that unifies language agents and KG for recommendation systems. In the simulated recommendation scenario, we position the user and item within the KG and integrate KG paths as natural language descriptions into the simulation. This allows language agents to interact with each other and discover sufficient rationale behind their interactions, making the simulation more accurate and aligned with real-world cases, thus improving recommendation performance. Our experimental results show that KGLA significantly improves recommendation performance (with a 33%-95% boost in NDCG@1 among three widely used benchmarks) compared to the previous best baseline method.
arxiv情報
著者 | Taicheng Guo,Chaochun Liu,Hai Wang,Varun Mannam,Fang Wang,Xin Chen,Xiangliang Zhang,Chandan K. Reddy |
発行日 | 2024-10-25 15:25:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google