EmbSum: Leveraging the Summarization Capabilities of Large Language Models for Content-Based Recommendations

要約

コンテンツベースの推奨システムは、デジタル世界でパーソナライズされたコンテンツをユーザーに配信する上で重要な役割を果たします。
この研究では、ユーザー エンゲージメント履歴内のインタラクションをキャプチャしながら、ユーザーと候補アイテムのオフライン事前計算を可能にする新しいフレームワークである EmbSum を紹介します。
事前トレーニングされたエンコーダー/デコーダー モデルとポリ アテンション レイヤーを利用することで、EmbSum はユーザー ポリエンベディング (UPE) とコンテンツ ポリエンベディング (CPE) を導出し、ユーザーと候補アイテム間の関連性スコアを計算します。
EmbSum は、大規模言語モデル (LLM) の監視のもとでユーザー関心の概要を生成することで、長いユーザー エンゲージメント履歴を積極的に学習します。
EmbSum の有効性は、異なるドメインの 2 つのデータセットで検証されており、より高い精度とより少ないパラメータで最先端 (SoTA) 手法を上回っています。
さらに、ユーザーの興味の概要を生成するモデルの機能は貴重な副産物として機能し、パーソナライズされたコンテンツの推奨の有用性を高めます。

要約(オリジナル)

Content-based recommendation systems play a crucial role in delivering personalized content to users in the digital world. In this work, we introduce EmbSum, a novel framework that enables offline pre-computations of users and candidate items while capturing the interactions within the user engagement history. By utilizing the pretrained encoder-decoder model and poly-attention layers, EmbSum derives User Poly-Embedding (UPE) and Content Poly-Embedding (CPE) to calculate relevance scores between users and candidate items. EmbSum actively learns the long user engagement histories by generating user-interest summary with supervision from large language model (LLM). The effectiveness of EmbSum is validated on two datasets from different domains, surpassing state-of-the-art (SoTA) methods with higher accuracy and fewer parameters. Additionally, the model’s ability to generate summaries of user interests serves as a valuable by-product, enhancing its usefulness for personalized content recommendations.

arxiv情報

著者 Chiyu Zhang,Yifei Sun,Minghao Wu,Jun Chen,Jie Lei,Muhammad Abdul-Mageed,Rong Jin,Angli Liu,Ji Zhu,Sem Park,Ning Yao,Bo Long
発行日 2024-08-19 08:50:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR パーマリンク