要約
従来のレコメンダー システムは、ユーザーのアイテムの好みの履歴を活用して、ユーザーが好む可能性のある新しいコンテンツを推奨します。
ただし、ユーザーが言語ベースの好みを表現できる最新のダイアログ インターフェイスは、基本的に異なる好みの入力方法を提供します。
大規模言語モデル (LLM) のプロンプト パラダイムの最近の成功に触発され、最先端の項目ベースの協調フィルタリング (CF) と比較して、項目ベースと言語ベースの両方の好みからレコメンデーションを作成するための LLM の使用法を研究します。
メソッド。
この調査をサポートするために、ユーザーから引き出されたアイテムベースと言語ベースの両方の好みと、さまざまな (偏った) 推奨アイテムおよび (偏りのない) ランダムなアイテムに対するユーザーの評価から構成される新しいデータセットを収集します。
多数の実験結果の中で、コールドスタートに近いケースにおいて、LLM は、この特定のタスクの教師付きトレーニングがないにもかかわらず、アイテムベースの CF 手法と比較して、純粋な言語ベースの好み (アイテムの好みなし) について競合する推奨パフォーマンスを提供することがわかりました (
ゼロショット)または少数のラベルのみ(少数ショット)。
言語ベースの好みの表現はアイテムベースやベクトルベースの表現よりも説明しやすく精査しやすいため、これは特に有望です。
要約(オリジナル)
Traditional recommender systems leverage users’ item preference history to recommend novel content that users may like. However, modern dialog interfaces that allow users to express language-based preferences offer a fundamentally different modality for preference input. Inspired by recent successes of prompting paradigms for large language models (LLMs), we study their use for making recommendations from both item-based and language-based preferences in comparison to state-of-the-art item-based collaborative filtering (CF) methods. To support this investigation, we collect a new dataset consisting of both item-based and language-based preferences elicited from users along with their ratings on a variety of (biased) recommended items and (unbiased) random items. Among numerous experimental results, we find that LLMs provide competitive recommendation performance for pure language-based preferences (no item preferences) in the near cold-start case in comparison to item-based CF methods, despite having no supervised training for this specific task (zero-shot) or only a few labels (few-shot). This is particularly promising as language-based preference representations are more explainable and scrutable than item-based or vector-based representations.
arxiv情報
著者 | Scott Sanner,Krisztian Balog,Filip Radlinski,Ben Wedin,Lucas Dixon |
発行日 | 2023-07-26 14:47:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google