要約
大規模言語モデル (LLM) は、推奨タスクをテキスト生成タスクに変換することで、推奨タスクにおける優れた推論機能を実証しました。
ただし、既存のアプローチでは、ユーザーとアイテムの高次の相互作用が無視されているか、非効果的にモデル化されています。
この目的を達成するために、この文書では、拡張された LLM ベースのレコメンダー (ELMRec) を紹介します。
グラフの事前トレーニングを必要とせずに、単語全体の埋め込みを強化して、レコメンデーションのためのグラフで構築された相互作用の LLM の解釈を大幅に強化します。
この発見は、単語全体の埋め込みを介して豊富なナレッジ グラフを LLM ベースのレコメンダーに組み込む取り組みを刺激する可能性があります。
また、LLM は、ユーザーの最近のインタラクションではなく、以前のインタラクションに基づいてアイテムを推奨し、再ランキング ソリューションを提示することが多いこともわかりました。
当社の ELMRec は、直接レコメンデーションと逐次レコメンデーションの両方において、最先端 (SOTA) メソッドよりも優れたパフォーマンスを発揮します。
要約(オリジナル)
Large language models (LLMs) have demonstrated prominent reasoning capabilities in recommendation tasks by transforming them into text-generation tasks. However, existing approaches either disregard or ineffectively model the user-item high-order interactions. To this end, this paper presents an enhanced LLM-based recommender (ELMRec). We enhance whole-word embeddings to substantially enhance LLMs’ interpretation of graph-constructed interactions for recommendations, without requiring graph pre-training. This finding may inspire endeavors to incorporate rich knowledge graphs into LLM-based recommenders via whole-word embedding. We also found that LLMs often recommend items based on users’ earlier interactions rather than recent ones, and present a reranking solution. Our ELMRec outperforms state-of-the-art (SOTA) methods in both direct and sequential recommendations.
arxiv情報
著者 | Xinfeng Wang,Jin Cui,Fumiyo Fukumoto,Yoshimi Suzuki |
発行日 | 2024-10-01 13:04:55+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google