Parameter-Efficient Conversational Recommender System as a Language Processing Task

要約

会話型レコメンダー システム (CRS) は、自然言語の会話を通じてユーザーの好みを引き出し、関連性のあるアイテムをユーザーに推奨することを目的としています。
これまでの研究では、アイテムの意味情報の外部ナレッジ グラフ、対話生成の言語モデル、および関連アイテムのランク付けのための推奨モジュールがよく利用されていました。
この複数のコンポーネントの組み合わせでは、トレーニング プロセスが煩雑になり、ダイアログの生成とアイテムの推奨の間でセマンティックの不整合の問題が発生します。
本稿では項目を自然言語で表現し、自然言語処理タスクとしてCRSを定式化する。
したがって、事前トレーニングされた言語モデルの力を活用して、アイテムをエンコードし、会話を通じてユーザーの意図を理解し、セマンティックマッチングを通じてアイテムの推奨を実行し、ダイアログを生成します。
統合モデルとしての PECRS (Parameter-Efficient CRS) は、ナレッジ グラフなどの非テキストのメタデータに依存することなく、単一段階で最適化できます。
ReDial と INSPIRED という 2 つのベンチマーク CRS データセットでの実験により、推奨と会話における PECRS の有効性が実証されました。
コードは https://github.com/Ravoxsg/efficient_unified_crs で入手できます。

要約(オリジナル)

Conversational recommender systems (CRS) aim to recommend relevant items to users by eliciting user preference through natural language conversation. Prior work often utilizes external knowledge graphs for items’ semantic information, a language model for dialogue generation, and a recommendation module for ranking relevant items. This combination of multiple components suffers from a cumbersome training process, and leads to semantic misalignment issues between dialogue generation and item recommendation. In this paper, we represent items in natural language and formulate CRS as a natural language processing task. Accordingly, we leverage the power of pre-trained language models to encode items, understand user intent via conversation, perform item recommendation through semantic matching, and generate dialogues. As a unified model, our PECRS (Parameter-Efficient CRS), can be optimized in a single stage, without relying on non-textual metadata such as a knowledge graph. Experiments on two benchmark CRS datasets, ReDial and INSPIRED, demonstrate the effectiveness of PECRS on recommendation and conversation. Our code is available at: https://github.com/Ravoxsg/efficient_unified_crs.

arxiv情報

著者 Mathieu Ravaut,Hao Zhang,Lu Xu,Aixin Sun,Yong Liu
発行日 2024-01-25 14:07:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク