Zero-Shot Next-Item Recommendation using Large Pretrained Language Models

要約

タイトル:大規模事前学習言語モデルを用いたゼロショットの次のアイテム推薦

要約:

– 大規模言語モデル(LLMs)は、トレーニング例なしでも推論が可能であり、様々な自然言語処理(NLP)タスクにおいて驚異的なゼロショットの成績を収めている。
– しかしながら、現在までに、LLMsをゼロショット設定で次のアイテム推薦のために使用する可能性を探究した研究は存在していない。
– この論文では、LLMsが推薦システムとして効果的に機能するためには、2つの課題があることを明らかにしている。
– 1つ目は、LLMsにとって推薦スペースが非常に広い場合、そしてLLMsは対象ユーザーの過去の相互作用したアイテムと好みについて知らないということである。
– このギャップを埋めるために、著者らはZero-Shot Next-Item Recommendation(NIR)プロンプティングと呼ばれるプロンプティング戦略を提案している。NIR戦略では、外部モジュールを使用して、ユーザーのフィルタリングまたはアイテムのフィルタリングに基づいて候補アイテムを生成することを含む。
– 著者らの戦略は、LLMsを誘導して次のアイテムを推薦するように設計されており、3つのステップのプロンプティングを行うことで、ユーザーの好みを取り込み、代表的な視聴済み映画を選択し、10本の映画のランキングリストを推薦することができる。
– 著者らは、MovieLens 100KデータセットでGPT-3を使用して提案手法を評価し、強力なゼロショットの成績を達成し、全トレーニングデータセットでトレーニングされたいくつかの強力なシーケンシャル推薦モデルを上回る結果を示した。
– これらの有望な結果は、LLMsを推薦システムとして使用する研究機会が豊富であることを強調している。論文のコードはhttps://github.com/AGI-Edgerunners/LLM-Next-Item-Recで見つけることができる。

要約(オリジナル)

Large language models (LLMs) have achieved impressive zero-shot performance in various natural language processing (NLP) tasks, demonstrating their capabilities for inference without training examples. Despite their success, no research has yet explored the potential of LLMs to perform next-item recommendations in the zero-shot setting. We have identified two major challenges that must be addressed to enable LLMs to act effectively as recommenders. First, the recommendation space can be extremely large for LLMs, and LLMs do not know about the target user’s past interacted items and preferences. To address this gap, we propose a prompting strategy called Zero-Shot Next-Item Recommendation (NIR) prompting that directs LLMs to make next-item recommendations. Specifically, the NIR-based strategy involves using an external module to generate candidate items based on user-filtering or item-filtering. Our strategy incorporates a 3-step prompting that guides GPT-3 to carry subtasks that capture the user’s preferences, select representative previously watched movies, and recommend a ranked list of 10 movies. We evaluate the proposed approach using GPT-3 on MovieLens 100K dataset and show that it achieves strong zero-shot performance, even outperforming some strong sequential recommendation models trained on the entire training dataset. These promising results highlight the ample research opportunities to use LLMs as recommenders. The code can be found at https://github.com/AGI-Edgerunners/LLM-Next-Item-Rec.

arxiv情報

著者 Lei Wang,Ee-Peng Lim
発行日 2023-04-06 15:35:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CL, cs.IR パーマリンク