A Survey on Large Language Models for Recommendation

要約

大規模言語モデル (LLM) は、自然言語処理 (NLP) の分野で強力なツールとして登場し、最近ではレコメンデーション システム (RS) の分野で大きな注目を集めています。
これらのモデルは、自己教師あり学習を使用して大量のデータでトレーニングされ、普遍的な表現の学習に目覚ましい成功を収めていることが実証されており、微調整やプロンプト調整などの効果的な伝達手法によって推奨システムのさまざまな側面を強化する可能性があります。
の上。
レコメンデーションの品質を高める際に言語モデルの力を活用する重要な側面は、テキストの特徴の高品質な表現と、アイテムとユーザー間の相関関係を確立するために外部の知識を広範囲にカバーすることを利用することです。
既存の LLM ベースのレコメンデーション システムを包括的に理解するために、この調査では、これらのモデルを 2 つの主要なパラダイム、それぞれ推奨用の判別 LLM (DLLM4Rec) と推奨用の生成 LLM (GLLM4Rec) に分類する分類法を提示します。後者は体系的に分類されています。
初めて整理されました。
さらに、各パラダイム内の既存の LLM ベースの推奨システムを体系的にレビューおよび分析し、その方法論、技術、パフォーマンスについての洞察を提供します。
さらに、重要な課題といくつかの貴重な発見を特定し、研究者や実務家にインスピレーションを提供します。
また、推奨のために LLM に関する関連論文のインデックスを作成する GitHub リポジトリ https://github.com/WLiK/LLM4Rec も作成しました。

要約(オリジナル)

Large Language Models (LLMs) have emerged as powerful tools in the field of Natural Language Processing (NLP) and have recently gained significant attention in the domain of Recommendation Systems (RS). These models, trained on massive amounts of data using self-supervised learning, have demonstrated remarkable success in learning universal representations and have the potential to enhance various aspects of recommendation systems by some effective transfer techniques such as fine-tuning and prompt tuning, and so on. The crucial aspect of harnessing the power of language models in enhancing recommendation quality is the utilization of their high-quality representations of textual features and their extensive coverage of external knowledge to establish correlations between items and users. To provide a comprehensive understanding of the existing LLM-based recommendation systems, this survey presents a taxonomy that categorizes these models into two major paradigms, respectively Discriminative LLM for Recommendation (DLLM4Rec) and Generative LLM for Recommendation (GLLM4Rec), with the latter being systematically sorted out for the first time. Furthermore, we systematically review and analyze existing LLM-based recommendation systems within each paradigm, providing insights into their methodologies, techniques, and performance. Additionally, we identify key challenges and several valuable findings to provide researchers and practitioners with inspiration. We have also created a GitHub repository to index relevant papers on LLMs for recommendation, https://github.com/WLiK/LLM4Rec.

arxiv情報

著者 Likang Wu,Zhi Zheng,Zhaopeng Qiu,Hao Wang,Hongchao Gu,Tingjia Shen,Chuan Qin,Chen Zhu,Hengshu Zhu,Qi Liu,Hui Xiong,Enhong Chen
発行日 2023-08-18 05:56:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IR パーマリンク