要約
逐次レコメンデーションは、ユーザーの履歴行動に基づいて興味のあるアイテムを提供することに特化しています。
ユーザーがアイテムのレビューで表現した属性と意見のペアにより、ユーザーの好みやアイテムの特徴をきめ細かいレベルで把握できる可能性が得られます。
この目的を達成するために、我々はレビューの属性と意見のペアを調査して逐次的な推奨を細かく処理する新しいフレームワーク FineRec を提案します。
具体的には、大規模な言語モデルを利用して、レビューから属性と意見のペアを抽出します。
属性ごとに、固有の属性固有のユーザー意見アイテム グラフが作成され、対応する意見が異種のユーザー ノードとアイテム ノードをリンクするエッジとして機能します。
意見の多様性に対処するために、グラフ内の情報を集約するための多様性を意識した畳み込み演算を考案し、属性固有のユーザーとアイテム表現の学習を可能にします。
最終的に、推奨を生成するためにすべての属性にわたって属性固有のユーザー/アイテム表現を統合する、インタラクション駆動型の融合メカニズムを提示します。
いくつかの実世界のデータセットに対して行われた広範な実験により、既存の最先端の手法に対する FineRec の優位性が実証されました。
さらなる分析により、タスクを処理する際のきめ細かい方法の有効性も検証されます。
要約(オリジナル)
Sequential recommendation is dedicated to offering items of interest for users based on their history behaviors. The attribute-opinion pairs, expressed by users in their reviews for items, provide the potentials to capture user preferences and item characteristics at a fine-grained level. To this end, we propose a novel framework FineRec that explores the attribute-opinion pairs of reviews to finely handle sequential recommendation. Specifically, we utilize a large language model to extract attribute-opinion pairs from reviews. For each attribute, a unique attribute-specific user-opinion-item graph is created, where corresponding opinions serve as the edges linking heterogeneous user and item nodes. To tackle the diversity of opinions, we devise a diversity-aware convolution operation to aggregate information within the graphs, enabling attribute-specific user and item representation learning. Ultimately, we present an interaction-driven fusion mechanism to integrate attribute-specific user/item representations across all attributes for generating recommendations. Extensive experiments conducted on several realworld datasets demonstrate the superiority of our FineRec over existing state-of-the-art methods. Further analysis also verifies the effectiveness of our fine-grained manner in handling the task.
arxiv情報
著者 | Xiaokun Zhang,Bo Xu,Youlin Wu,Yuan Zhong,Hongfei Lin,Fenglong Ma |
発行日 | 2024-04-19 16:04:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google