要約
会話型レコメンダー システム (CRS) は、自然言語の会話を通じてレコメンデーション サービスを提供することを目的としています。
効果的な CRS を開発するには、高品質の CRS データセットが非常に重要です。
ただし、既存の CRS データセットはロングテールの問題に悩まされています。つまり、ロングテール項目と呼ばれる項目の大部分が会話でめったに (またはまったく) 言及されません。
その結果、これらのデータセットでトレーニングされた CRS は頻繁に使用されるアイテムを推奨する傾向があり、推奨されるアイテムの多様性が大幅に減少し、ユーザーが飽きやすくなります。
この問題に対処するために、この論文では \textbf{LOT-CRS} を紹介します。これは、CRS の \textbf{LO}ng-\textbf{T}ail 推奨パフォーマンスを向上させるためのバランスのとれた CRS データセット (\つまり、すべてのアイテムを均等にカバーする) のシミュレーションと利用に焦点を当てた新しいフレームワークです。
私たちのアプローチでは、ロングテール アイテムの模擬会話の理解を強化する 2 つの事前トレーニング タスクを設計し、ラベルの滑らかさ戦略を使用した検索拡張微調整を採用して、ロングテール アイテムのレコメンデーションをさらに改善します。
2 つの公開 CRS データセットに対する広範な実験により、特にロングテール レコメンデーションにおけるアプローチの有効性と拡張性が実証されました。
要約(オリジナル)
Conversational recommender systems (CRS) aim to provide the recommendation service via natural language conversations. To develop an effective CRS, high-quality CRS datasets are very crucial. However, existing CRS datasets suffer from the long-tail issue, \ie a large proportion of items are rarely (or even never) mentioned in the conversations, which are called long-tail items. As a result, the CRSs trained on these datasets tend to recommend frequent items, and the diversity of the recommended items would be largely reduced, making users easier to get bored. To address this issue, this paper presents \textbf{LOT-CRS}, a novel framework that focuses on simulating and utilizing a balanced CRS dataset (\ie covering all the items evenly) for improving \textbf{LO}ng-\textbf{T}ail recommendation performance of CRSs. In our approach, we design two pre-training tasks to enhance the understanding of simulated conversation for long-tail items, and adopt retrieval-augmented fine-tuning with label smoothness strategy to further improve the recommendation of long-tail items. Extensive experiments on two public CRS datasets have demonstrated the effectiveness and extensibility of our approach, especially on long-tail recommendation.
arxiv情報
著者 | Zhipeng Zhao,Kun Zhou,Xiaolei Wang,Wayne Xin Zhao,Fan Pan,Zhao Cao,Ji-Rong Wen |
発行日 | 2023-07-21 15:28:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google