Taxonomy-Guided Zero-Shot Recommendations with LLMs

要約

大規模言語モデル (LLM) の出現と、そのさまざまなタスクを実行できる機能により、レコメンダー システム (RecSys) でのそのアプリケーションが期待できるようになりました。
しかし、LLM を RecSys に導入する場合、プロンプトの長さの制限、構造化されていないアイテム情報、推奨事項の制約のない生成など、次善のパフォーマンスにつながる重大な課題に直面しています。
これらの問題に対処するために、我々は分類辞書を使用する新しい方法を提案します。
この方法は、アイテムを分類および整理するための体系的なフレームワークを提供し、アイテム情報の明確さと構造を向上させます。
分類辞書を LLM プロンプトに組み込むことで、効率的なトークンの利用と制御された特徴生成が実現され、より正確でコンテキストに関連した推奨事項が得られます。
当社のタクソノミーに基づくレコメンデーション (TaxRec) アプローチは、ワンタイムのタクソノミー分類と LLM ベースのレコメンデーションという 2 段階のプロセスを特徴としており、ドメイン固有の微調整を必要とせずにゼロショット レコメンデーションを可能にします。
実験結果は、TaxRec が従来のゼロショットアプローチと比較して推奨品質を大幅に向上させ、LLM による個人推奨としての有効性を示していることを示しています。
コードは https://github.com/yueqingliang1/TaxRec で入手できます。

要約(オリジナル)

With the emergence of large language models (LLMs) and their ability to perform a variety of tasks, their application in recommender systems (RecSys) has shown promise. However, we are facing significant challenges when deploying LLMs into RecSys, such as limited prompt length, unstructured item information, and un-constrained generation of recommendations, leading to sub-optimal performance. To address these issues, we propose a novel method using a taxonomy dictionary. This method provides a systematic framework for categorizing and organizing items, improving the clarity and structure of item information. By incorporating the taxonomy dictionary into LLM prompts, we achieve efficient token utilization and controlled feature generation, leading to more accurate and contextually relevant recommendations. Our Taxonomy-guided Recommendation (TaxRec) approach features a two-step process: one-time taxonomy categorization and LLM-based recommendation, enabling zero-shot recommendations without the need for domain-specific fine-tuning. Experimental results demonstrate TaxRec significantly enhances recommendation quality compared to traditional zero-shot approaches, showcasing its efficacy as personal recommender with LLMs. Code is available at https://github.com/yueqingliang1/TaxRec.

arxiv情報

著者 Yueqing Liang,Liangwei Yang,Chen Wang,Xiongxiao Xu,Philip S. Yu,Kai Shu
発行日 2024-08-27 06:18:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR パーマリンク