LLM4SBR: A Lightweight and Effective Framework for Integrating Large Language Models in Session-based Recommendation

要約

従来のセッションベースの推奨 (SBR) では、匿名ユーザーからのセッション動作シーケンスを推奨に利用します。
この戦略は非常に効率的ですが、アイテムに固有のセマンティック情報が犠牲になるため、モデルがセッションの真の意図を理解することが困難になり、推奨結果の解釈可能性が欠如します。
最近、大規模言語モデル (LLM) がさまざまなドメインで普及し、前述の課題に対処する上で希望の兆しが見えてきました。
LLM の影響に触発されて、LLM とレコメンダー システム (RS) の統合を探る研究が雨後の筍のように急増しました。
しかし、高い時間とスペースのコスト、およびセッション データの簡潔かつ匿名性による制約により、産業展開に適した最初の LLM 推奨フレームワークは、SBR の分野ではまだ登場していません。
前述の課題に対処するために、私たちは SBR 用 LLM 統合フレームワーク (LLM4SBR) を提案しました。
LLM4SBR は、軽量でプラグアンドプレイのフレームワークとして機能し、2 段階の戦略を採用しています。
まず、セッション データをテキストと動作の二峰性形式に変換します。
最初のステップでは、LLM の推論機能を活用して、さまざまな観点からセッション テキスト データの推論を実行し、補助的な強化のためのコンポーネントを設計します。
2 番目のステップでは、SBR モデルが動作データでトレーニングされ、異なる視点からの 2 つのモーダル セッション表現を調整して平均します。
最後に、さまざまな観点やモダリティからのセッション表現を融合して、レコメンデーションのための究極のセッション表現を作成します。
私たちは 2 つの現実世界のデータセットで実験を実施しました。その結果、LLM4SBR は従来の SBR モデルのパフォーマンスを大幅に向上させ、非常に軽量で効率的であるため、産業展開に適していることが実証されました。

要約(オリジナル)

Traditional session-based recommendation (SBR) utilizes session behavior sequences from anonymous users for recommendation. Although this strategy is highly efficient, it sacrifices the inherent semantic information of the items, making it difficult for the model to understand the true intent of the session and resulting in a lack of interpretability in the recommended results. Recently, large language models (LLMs) have flourished across various domains, offering a glimpse of hope in addressing the aforementioned challenges. Inspired by the impact of LLMs, research exploring the integration of LLMs with the Recommender system (RS) has surged like mushrooms after rain. However, constrained by high time and space costs, as well as the brief and anonymous nature of session data, the first LLM recommendation framework suitable for industrial deployment has yet to emerge in the field of SBR. To address the aforementioned challenges, we have proposed the LLM Integration Framework for SBR (LLM4SBR). Serving as a lightweight and plug-and-play framework, LLM4SBR adopts a two-step strategy. Firstly, we transform session data into a bimodal form of text and behavior. In the first step, leveraging the inferential capabilities of LLMs, we conduct inference on session text data from different perspectives and design the component for auxiliary enhancement. In the second step, the SBR model is trained on behavior data, aligning and averaging two modal session representations from different perspectives. Finally, we fuse session representations from different perspectives and modalities as the ultimate session representation for recommendation. We conducted experiments on two real-world datasets, and the results demonstrate that LLM4SBR significantly improves the performance of traditional SBR models and is highly lightweight and efficient, making it suitable for industrial deployment.

arxiv情報

著者 Shutong Qiao,Chen Gao,Junhao Wen,Wei Zhou,Qun Luo,Peixuan Chen,Yong Li
発行日 2024-02-21 14:38:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IR パーマリンク