RDRec: Rationale Distillation for LLM-based Recommendation

要約

効果的な意味推論のためのテキスト プロンプトを通じてユーザーとアイテムの橋渡しをする、大規模言語モデル (LLM) ベースのレコメンダー モデルは、かなりの注目を集めています。
ただし、ユーザーの好みやアイテムの属性など、インタラクションの背後にある根本的な理論的根拠を考慮する方法はほとんどなく、推奨事項に対する LLM の推論能力が制限されます。
この論文では、より大きな言語モデル (LM) によって生成された理論的根拠を学習するように設計されたコンパクトなモデルである理論的抽出レコメンダー (RDRec) を提案します。
RDRec は、ユーザーやアイテムに関連するレビューからの理論的根拠を活用することで、推奨事項のプロファイルを明確に指定します。
実験の結果、RDRec はトップ N レコメンデーションとシーケンシャル レコメンデーションの両方で最先端 (SOTA) のパフォーマンスを達成することが示されています。
私たちのソースコードは https://github.com/WangXFng/RDRec で公開されています。

要約(オリジナル)

Large language model (LLM)-based recommender models that bridge users and items through textual prompts for effective semantic reasoning have gained considerable attention. However, few methods consider the underlying rationales behind interactions, such as user preferences and item attributes, limiting the reasoning capability of LLMs for recommendations. This paper proposes a rationale distillation recommender (RDRec), a compact model designed to learn rationales generated by a larger language model (LM). By leveraging rationales from reviews related to users and items, RDRec remarkably specifies their profiles for recommendations. Experiments show that RDRec achieves state-of-the-art (SOTA) performance in both top-N and sequential recommendations. Our source code is released at https://github.com/WangXFng/RDRec.

arxiv情報

著者 Xinfeng Wang,Jin Cui,Yoshimi Suzuki,Fumiyo Fukumoto
発行日 2024-05-17 07:22:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR パーマリンク