The Whole is Better than the Sum: Using Aggregated Demonstrations in In-Context Learning for Sequential Recommendation

要約

大規模言語モデル (LLM) は、さまざまな NLP タスクで優れたパフォーマンスを示しています。
LLM を強力な逐次レコメンダーとして使用するために、逐次レコメンデーションに対するコンテキスト内学習アプローチを検討します。
指導形式、課題の一貫性、デモンストレーションの選択、デモンストレーションの数の影響を調査します。
ICL のデモンストレーションの数を増やしても、長いプロンプトを使用しても精度は向上しないため、複数のデモンストレーション ユーザーを 1 つの集約されたデモンストレーションに組み込む LLMSRec-Syn と呼ばれる新しい方法を提案します。
3 つの推奨データセットに対する私たちの実験では、LLMSRec-Syn が最先端の LLM ベースの逐次推奨手法よりも優れていることがわかりました。
場合によっては、LLMSRec-Syn は教師あり学習方法と同等かそれ以上のパフォーマンスを発揮できます。
私たちのコードは https://github.com/demoleiwang/LLMSRec_Syn で公開されています。

要約(オリジナル)

Large language models (LLMs) have shown excellent performance on various NLP tasks. To use LLMs as strong sequential recommenders, we explore the in-context learning approach to sequential recommendation. We investigate the effects of instruction format, task consistency, demonstration selection, and number of demonstrations. As increasing the number of demonstrations in ICL does not improve accuracy despite using a long prompt, we propose a novel method called LLMSRec-Syn that incorporates multiple demonstration users into one aggregated demonstration. Our experiments on three recommendation datasets show that LLMSRec-Syn outperforms state-of-the-art LLM-based sequential recommendation methods. In some cases, LLMSRec-Syn can perform on par with or even better than supervised learning methods. Our code is publicly available at https://github.com/demoleiwang/LLMSRec_Syn.

arxiv情報

著者 Lei Wang,Ee-Peng Lim
発行日 2024-03-15 09:28:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.IR パーマリンク