要約
レコメンデーション基盤モデルは、レコメンデーションタスクを自然言語タスクに変換することで、レコメンデーションに大規模言語モデル(LLM)を利用する。従来のレコメンデーションモデルでは、レコメンデーションの候補となるアイテムの一つ一つに対してランキングスコアを計算する代わりに、レコメンデーションするアイテムを直接生成する生成的レコメンデーションを可能にし、レコメンデーションパイプラインを多段フィルタリングからシングルステージフィルタリングへと簡素化する。どのアイテムを推薦するかを決定する際に過剰に長いテキストを生成することを避けるために、LLM互換のアイテムIDを作成することは推薦基盤モデルにとって不可欠である。本研究では、P5を代表的な基幹モデルとし、その結果を様々なインデクシング手法で再現することで、推薦基幹モデルのアイテムインデクシング問題を系統的に検討する。項目インデクシングの重要性を強調するために、まず、独立インデクシング、タイトルインデクシング、ランダムインデクシングなど、いくつかの些細な項目インデクシング方法の問題点を議論する。次に、逐次インデックス、協調インデックス、セマンティック(内容ベース)インデックス、ハイブリッドインデックスの4つのシンプルかつ効果的な解決策を提案する。P5の再現性研究により、項目の索引付け手法がモデルの性能に大きく影響することを明らかにし、実世界のデータセットにおける結果から、提案する解決策の有効性を検証する。
要約(オリジナル)
Recommendation foundation model utilizes large language models (LLM) for recommendation by converting recommendation tasks into natural language tasks. It enables generative recommendation which directly generates the item(s) to recommend rather than calculating a ranking score for each and every candidate item in traditional recommendation models, simplifying the recommendation pipeline from multi-stage filtering to single-stage filtering. To avoid generating excessively long text when deciding which item(s) to recommend, creating LLM-compatible item IDs is essential for recommendation foundation models. In this study, we systematically examine the item indexing problem for recommendation foundation models, using P5 as the representative backbone model and replicating its results with various indexing methods. To emphasize the importance of item indexing, we first discuss the issues of several trivial item indexing methods, such as independent indexing, title indexing, and random indexing. We then propose four simple yet effective solutions, including sequential indexing, collaborative indexing, semantic (content-based) indexing, and hybrid indexing. Our reproducibility study of P5 highlights the significant influence of item indexing methods on the model performance, and our results on real-world datasets validate the effectiveness of our proposed solutions.
arxiv情報
著者 | Wenyue Hua,Shuyuan Xu,Yingqiang Ge,Yongfeng Zhang |
発行日 | 2023-07-01 19:59:37+00:00 |
arxivサイト | arxiv_id(pdf) |