Reindex-Then-Adapt: Improving Large Language Models for Conversational Recommendation

要約

大規模言語モデル (LLM) は、アイテムのコンテンツに適切にインデックスを付け、複雑な会話のコンテキストを理解し、関連するアイテムのタイトルを生成することにより、会話レコメンダー システムに革命をもたらしています。
ただし、推奨アイテムの配布を制御することは依然として課題です。
これにより、ターゲットを絞った会話型レコメンデーション プラットフォームでアイテムの人気など、急速に変化するデータ分布をキャプチャできないため、最適なパフォーマンスが得られません。
会話型レコメンデーションでは、LLM は自己回帰的にタイトルを (複数のトークンとして) 生成することでアイテムを推奨するため、すべてのアイテムのレコメンデーションを取得して制御することが困難になります。
したがって、私たちは、マルチトークンアイテムタイトルをLLM内の単一トークンに変換し、それに応じてこれらの単一トークンアイテムタイトルの確率分布を調整する、Reindex-Then-Adapt(RTA)フレームワークを提案します。
RTA フレームワークは、LLM と従来のレコメンダー システム (RecSys) の両方の利点を兼ね備えています。LLM と同様に複雑なクエリを理解します。
従来の RecSys と同様に、会話型レコメンデーションにおける推奨アイテムの配布を効率的に制御しながら。
私たちのフレームワークは、3 つの異なる会話型レコメンデーション データセットと 2 つの適応設定にわたって改善された精度メトリクスを示しています。

要約(オリジナル)

Large language models (LLMs) are revolutionizing conversational recommender systems by adeptly indexing item content, understanding complex conversational contexts, and generating relevant item titles. However, controlling the distribution of recommended items remains a challenge. This leads to suboptimal performance due to the failure to capture rapidly changing data distributions, such as item popularity, on targeted conversational recommendation platforms. In conversational recommendation, LLMs recommend items by generating the titles (as multiple tokens) autoregressively, making it difficult to obtain and control the recommendations over all items. Thus, we propose a Reindex-Then-Adapt (RTA) framework, which converts multi-token item titles into single tokens within LLMs, and then adjusts the probability distributions over these single-token item titles accordingly. The RTA framework marries the benefits of both LLMs and traditional recommender systems (RecSys): understanding complex queries as LLMs do; while efficiently controlling the recommended item distributions in conversational recommendations as traditional RecSys do. Our framework demonstrates improved accuracy metrics across three different conversational recommendation datasets and two adaptation settings

arxiv情報

著者 Zhankui He,Zhouhang Xie,Harald Steck,Dawen Liang,Rahul Jha,Nathan Kallus,Julian McAuley
発行日 2024-05-20 15:37:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.IR パーマリンク