Large Language Model Augmented Narrative Driven Recommendations

要約

ナラティブ主導型レコメンデーション (NDR) では、ユーザーが自分の好みやコンテキストを詳細に説明してレコメンデーションを求めるという情報アクセスの問題が発生します。たとえば、旅行者は自分の好き嫌いや旅行の状況を説明しながら、興味のある場所のレコメンデーションを求めます。
検索および推奨システム用の自然言語ベースの会話インターフェイスの台頭により、これらの要求はますます重要になっています。
ただし、NDR にはモデルのトレーニング データが豊富になく、現在のプラットフォームは通常、これらのリクエストをサポートしていません。
幸いなことに、従来のユーザーとアイテムのインタラクション データセットには、ユーザーの好みやコンテキストを記述することが多いレビューなどの豊富なテキスト データが含まれており、これは NDR モデルのブートストラップ トレーニングに使用される可能性があります。
この作業では、NDR モデルをトレーニングするためのデータ拡張に大規模言語モデル (LLM) を使用する方法を検討します。
私たちは LLM を使用して、少数ショット プロンプトによるユーザーとアイテムのインタラクションから合成ナラティブ クエリを作成し、合成クエリとユーザーとアイテムのインタラクション データに関する NDR の検索モデルをトレーニングします。
私たちの実験では、これが、他の検索やナラティブ主導のレコメンデーションの LLM ベースラインよりも優れた小さなパラメーターの検索モデルをトレーニングするための効果的な戦略であることを示しています。

要約(オリジナル)

Narrative-driven recommendation (NDR) presents an information access problem where users solicit recommendations with verbose descriptions of their preferences and context, for example, travelers soliciting recommendations for points of interest while describing their likes/dislikes and travel circumstances. These requests are increasingly important with the rise of natural language-based conversational interfaces for search and recommendation systems. However, NDR lacks abundant training data for models, and current platforms commonly do not support these requests. Fortunately, classical user-item interaction datasets contain rich textual data, e.g., reviews, which often describe user preferences and context – this may be used to bootstrap training for NDR models. In this work, we explore using large language models (LLMs) for data augmentation to train NDR models. We use LLMs for authoring synthetic narrative queries from user-item interactions with few-shot prompting and train retrieval models for NDR on synthetic queries and user-item interaction data. Our experiments demonstrate that this is an effective strategy for training small-parameter retrieval models that outperform other retrieval and LLM baselines for narrative-driven recommendation.

arxiv情報

著者 Sheshera Mysore,Andrew McCallum,Hamed Zamani
発行日 2023-07-21 07:46:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.IR パーマリンク