要約
言語モデル (LM) は、その高度な言語理解および生成機能により、レコメンデーション システムでの採用が増えています。
生成検索に基づく最近のレコメンダー システムは、LM の推論機能を利用して、ユーザーの対話履歴内の項目シーケンスに基づいて、次の項目のインデックス トークンを直接生成します。
これまでの研究は主に、テキストの意味情報または共同情報のみに基づく項目インデックスに焦点を当てていました。
ただし、これらの側面の単独の有効性は実証されていますが、この情報の統合は未調査のままです。
私たちの綿密な分析により、異種の項目インデックスと多様な入力プロンプトからモデルによって取得された知識には大きな違いがあり、相補性の可能性が高いことがわかりました。
この論文では、2 つの異なる項目インデックスと複数のプロンプト テンプレートから多様な嗜好知識を学習する統合レコメンダー システムである SC-Rec を提案します。
さらに、SC-Rec は、モデルの自己一貫性を達成するために、さまざまなインデックスとプロンプトに基づいて推論された一連のランキング結果を集約する新しい再ランキング戦略を採用しています。
3 つの現実世界のデータセットに対する経験的評価では、SC-Rec が逐次レコメンデーションの最先端の手法を大幅に上回り、モデルのさまざまな出力から補完的な知識を効果的に組み込んでいることが実証されました。
要約(オリジナル)
Language Models (LMs) are increasingly employed in recommendation systems due to their advanced language understanding and generation capabilities. Recent recommender systems based on generative retrieval have leveraged the inferential abilities of LMs to directly generate the index tokens of the next item, based on item sequences within the user’s interaction history. Previous studies have mostly focused on item indices based solely on textual semantic or collaborative information. However, although the standalone effectiveness of these aspects has been demonstrated, the integration of this information has remained unexplored. Our in-depth analysis finds that there is a significant difference in the knowledge captured by the model from heterogeneous item indices and diverse input prompts, which can have a high potential for complementarity. In this paper, we propose SC-Rec, a unified recommender system that learns diverse preference knowledge from two distinct item indices and multiple prompt templates. Furthermore, SC-Rec adopts a novel reranking strategy that aggregates a set of ranking results, inferred based on different indices and prompts, to achieve the self-consistency of the model. Our empirical evaluation on three real-world datasets demonstrates that SC-Rec considerably outperforms the state-of-the-art methods for sequential recommendation, effectively incorporating complementary knowledge from varied outputs of the model.
arxiv情報
著者 | Tongyoung Kim,Soojin Yoon,Seongku Kang,Jinyoung Yeo,Dongha Lee |
発行日 | 2024-08-16 11:59:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google