Integrating Large Language Models with Graphical Session-Based Recommendation

要約

大規模言語モデル (LLM) の急速な発展に伴い、レコメンダー システムでコンテキストを理解する LLM の機能を利用するためのさまざまな検討が行われています。
先駆的な戦略により、主に従来のレコメンデーション タスクが自然言語生成の課題に変換されてきましたが、セッションベース レコメンデーション (SBR) の領域では、その特殊性により探求が相対的に不足していました。
SBR は主にグラフ ニューラル ネットワークによって支配されてきました。グラフ ニューラル ネットワークは、隣接する動作間の暗黙的関係と明示的関係の両方を捉える能力により、多くの成功を収めてきました。
グラフの構造的性質は自然言語の本質とは対照的であり、LLM にとって大きな適応ギャップをもたらします。
このペーパーでは、LLMGR と呼ばれる、グラフィカルなセッションベースの推奨を備えた大規模な言語モデルを紹介します。これは、SBR タスク用に LLM とグラフ ニューラル ネットワーク (GNN) を調和的に統合することで、前述のギャップを埋める効果的なフレームワークです。
この統合は、自然言語理解における LLM とリレーショナル データ処理における GNN の補完的な強みを活用することを目指しており、セッション内のアイテムを理解して推奨できる、より強力なセッションベースのレコメンダー システムにつながります。
さらに、LLM に SBR タスクを強化する機能を与えるために、補助命令と主要命令の両方の調整タスク用の一連のプロンプトを設計します。
これらのプロンプトは、LLM がグラフ構造のデータを理解し、テキスト情報をノードに合わせて調整できるように作成されており、微妙なユーザー インタラクションを LLM アーキテクチャが理解して利用できる形式に効果的に変換します。
3 つの現実世界のデータセットに対する広範な実験により、LLMGR がいくつかの競合ベースラインよりも優れていることが実証され、SBR タスクの強化におけるその有効性と、将来の探査のための研究の方向性としての可能性が示されています。

要約(オリジナル)

With the rapid development of Large Language Models (LLMs), various explorations have arisen to utilize LLMs capability of context understanding on recommender systems. While pioneering strategies have primarily transformed traditional recommendation tasks into challenges of natural language generation, there has been a relative scarcity of exploration in the domain of session-based recommendation (SBR) due to its specificity. SBR has been primarily dominated by Graph Neural Networks, which have achieved many successful outcomes due to their ability to capture both the implicit and explicit relationships between adjacent behaviors. The structural nature of graphs contrasts with the essence of natural language, posing a significant adaptation gap for LLMs. In this paper, we introduce large language models with graphical Session-Based recommendation, named LLMGR, an effective framework that bridges the aforementioned gap by harmoniously integrating LLMs with Graph Neural Networks (GNNs) for SBR tasks. This integration seeks to leverage the complementary strengths of LLMs in natural language understanding and GNNs in relational data processing, leading to a more powerful session-based recommender system that can understand and recommend items within a session. Moreover, to endow the LLM with the capability to empower SBR tasks, we design a series of prompts for both auxiliary and major instruction tuning tasks. These prompts are crafted to assist the LLM in understanding graph-structured data and align textual information with nodes, effectively translating nuanced user interactions into a format that can be understood and utilized by LLM architectures. Extensive experiments on three real-world datasets demonstrate that LLMGR outperforms several competitive baselines, indicating its effectiveness in enhancing SBR tasks and its potential as a research direction for future exploration.

arxiv情報

著者 Naicheng Guo,Hongwei Cheng,Qianqiao Liang,Linxun Chen,Bing Han
発行日 2024-02-26 12:55:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR, cs.LG パーマリンク