A Survey on Large Language Models for Recommendation

要約

大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場し、最近では推薦システム(RS)の分野で大きな注目を集めている。これらのモデルは、自己教師あり学習を用いて膨大な量のデータに対して学習され、普遍的な表現の学習において顕著な成功を示しており、ファインチューニングやプロンプトチューニングなどのいくつかの効果的な転送技術によって、推薦システムの様々な側面を強化する可能性を秘めている。推薦品質を向上させるために言語モデルの力を活用する上で重要な点は、テキスト特徴の高品質な表現と、項目とユーザ間の相関を確立するための外部知識の広範なカバー範囲を利用することである。既存のLLMベースの推薦システムの包括的な理解を提供するために、本サーベイでは、これらのモデルを2つの主要なパラダイム、それぞれ識別的推薦のためのLLM(DLLM4Rec)と生成的推薦のためのLLM(GLLM4Rec)に分類する分類法を提示する。さらに、各パラダイムにおける既存のLLMベースの推薦システムを体系的にレビューし、分析することで、その方法論、技術、パフォーマンスに関する洞察を提供する。さらに、研究者や実務家にインスピレーションを与えるために、重要な課題といくつかの貴重な発見を明らかにする。また、推薦のためのLLMに関する関連論文をインデックス化するために、GitHubリポジトリを作成した(https://github.com/WLiK/LLM4Rec)。

要約(オリジナル)

Large Language Models (LLMs) have emerged as powerful tools in the field of Natural Language Processing (NLP) and have recently gained significant attention in the domain of Recommendation Systems (RS). These models, trained on massive amounts of data using self-supervised learning, have demonstrated remarkable success in learning universal representations and have the potential to enhance various aspects of recommendation systems by some effective transfer techniques such as fine-tuning and prompt tuning, and so on. The crucial aspect of harnessing the power of language models in enhancing recommendation quality is the utilization of their high-quality representations of textual features and their extensive coverage of external knowledge to establish correlations between items and users. To provide a comprehensive understanding of the existing LLM-based recommendation systems, this survey presents a taxonomy that categorizes these models into two major paradigms, respectively Discriminative LLM for Recommendation (DLLM4Rec) and Generative LLM for Recommendation (GLLM4Rec), with the latter being systematically sorted out for the first time. Furthermore, we systematically review and analyze existing LLM-based recommendation systems within each paradigm, providing insights into their methodologies, techniques, and performance. Additionally, we identify key challenges and several valuable findings to provide researchers and practitioners with inspiration. We have also created a GitHub repository to index relevant papers on LLMs for recommendation, https://github.com/WLiK/LLM4Rec.

arxiv情報

著者 Likang Wu,Zhi Zheng,Zhaopeng Qiu,Hao Wang,Hongchao Gu,Tingjia Shen,Chuan Qin,Chen Zhu,Hengshu Zhu,Qi Liu,Hui Xiong,Enhong Chen
発行日 2023-08-04 02:58:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.IR パーマリンク