要約
既存の大規模な言語モデルLLMベースの推奨方法は、大規模な候補プールの処理における非効率性、プロンプト内のアイテムの順序に対する感度(「中央で失われた」現象)の貧弱なスケーラビリティ、ランダムなネガティブサンプリングによる非現実的な評価など、いくつかの課題に直面しています。
これらの問題に対処するために、LLMSを活用して候補者プール全体から関連アイテムを取得するためのパーソナライズされたクエリを生成し、候補者の事前選択の必要性を排除するクエリから推奨のアプローチを提案します。
この方法は、追加のトレーニングなしでIDベースの推奨システムに統合でき、LLMSの世界知識を通じて推奨のパフォーマンスと多様性を高め、あまり人気のないアイテムグループでもうまく機能します。
3つのデータセットでの実験は、最大57%の改善を示し、平均31%の増加を示し、既存のモデルに沿って強いゼロショットパフォーマンスとさらなる利益を示します。
要約(オリジナル)
Existing large language model LLM-based recommendation methods face several challenges, including inefficiency in handling large candidate pools, sensitivity to item order within prompts (‘lost in the middle’ phenomenon) poor scalability, and unrealistic evaluation due to random negative sampling. To address these issues, we propose a Query-to-Recommendation approach that leverages LLMs to generate personalized queries for retrieving relevant items from the entire candidate pool, eliminating the need for candidate pre-selection. This method can be integrated into an ID-based recommendation system without additional training, enhances recommendation performance and diversity through LLMs’ world knowledge, and performs well even for less popular item groups. Experiments on three datasets show up to 57 percent improvement, with an average gain of 31 percent, demonstrating strong zero-shot performance and further gains when ensembled with existing models.
arxiv情報
著者 | Donghee Han,Hwanjun Song,Mun Yong Yi |
発行日 | 2025-04-16 09:17:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google