要約
大規模言語モデル (LLM) の進歩に伴い、研究者は、逐次レコメンデーション シナリオでその理解および生成機能を最適に活用するためのさまざまな方法を模索してきました。
ただし、この取り組みにはいくつかの課題が残されています。
まず、既存のアプローチのほとんどは入出力プロンプトパラダイムに依存しているため、無関係または不正確な応答が生じる可能性があります。
第二に、思考連鎖 (CoT) などのプロンプト戦略を使用して LLM を強化する試みが行われてきましたが、これらの取り組みは LLM の推論能力を十分に活用したり、ユーザー シーケンスに含まれる多面的な情報を効果的に捕捉したりすることはできませんでした。
これらの制限に対処するために、我々は思考のグラフ (GoT) プロンプト戦略を利用した逐次的な推奨方法である GOT4Rec を提案します。
具体的には、ユーザー履歴シーケンス内の 3 つの主要なタイプの情報 (短期的な関心、長期的な関心、他のユーザーからの協力情報) を特定して利用します。
私たちのアプローチにより、LLM はこれらの異なるタイプの情報に基づいて独自に推論して推奨事項を生成し、その後 GoT フレームワーク内で結果を集約して最終的な推奨項目を導き出すことができます。
この方法により、LLM は推論機能が強化され、ユーザー シーケンス内の多様な情報をより効果的に検討できるようになり、その結果、より正確な推奨事項とより包括的な説明が得られます。
現実世界のデータセットに対する広範な実験により、GOT4Rec の有効性が実証され、GOT4Rec が既存の最先端のベースラインを上回るパフォーマンスを示しています。
私たちのコードは https://anonymous.4open.science/r/GOT4Rec-ED99 で入手できます。
要約(オリジナル)
With the advancement of large language models (LLMs), researchers have explored various methods to optimally leverage their comprehension and generation capabilities in sequential recommendation scenarios. However, several challenges persist in this endeavor. Firstly, most existing approaches rely on the input-output prompting paradigm, which can result in irrelevant or inaccurate responses. Secondly, while there have been attempts to enhance LLMs using prompting strategies such as chain-of-thought (CoT), these efforts have not fully harnessed the reasoning abilities of LLMs or effectively captured the multifaceted information contained within user sequences. To address these limitations, we propose GOT4Rec, a sequential recommendation method that utilizes the graph of thoughts (GoT) prompting strategy. Specifically, we identify and utilize three key types of information within user history sequences: short-term interests, long-term interests and collaborative information from other users. Our approach enables LLMs to independently reason and generate recommendations based on these distinct types of information, subsequently aggregating the results within the GoT framework to derive the final recommended items. This method allows LLMs, with enhanced reasoning capabilities, to more effectively consider the diverse information within user sequences, resulting in more accurate recommendations and more comprehensive explanations. Extensive experiments on real-world datasets demonstrate the effectiveness of GOT4Rec, indicating that it outperforms existing state-of-the-art baselines. Our code is available at https://anonymous.4open.science/r/GOT4Rec-ED99.
arxiv情報
著者 | Zewen Long,Liang Wang,Shu Wu,Qiang Liu,Liang Wang |
発行日 | 2024-11-22 13:24:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google