Towards a Unified Conversational Recommendation System: Multi-task Learning via Contextualized Knowledge Distillation

要約

会話型レコメンデーション システム (CRS) では、エージェントは自然言語の会話内でユーザーに一連のアイテムを推奨するように求められます。
会話機能とパーソナライズされた推奨事項の両方のニーズに対処するために、以前の作品では別個の推奨モジュールと対話モジュールが利用されていました。
ただし、このようなアプローチでは、推奨結果と生成される応答の間に矛盾が生じることは避けられません。
このギャップを埋めるために、単一のモデルがコンテキスト化された知識の蒸留 (ConKD) を介して両方のタスクを共同学習する、統合 CRS のマルチタスク学習を提案します。
ConKD の 2 つのバージョン、ハード ゲートとソフト ゲートを紹介します。
前者はタスク固有の 2 人の教師の間を選択的にゲートし、後者は両方の教師からの知識を統合します。
私たちのゲートはコンテキスト固有の方法でオンザフライで計算され、関連する知識の柔軟な統合を促進します。
広範な実験により、私たちの単一モデルが流暢性を高めながらレコメンデーションのパフォーマンスを大幅に向上させ、多様性の点で同等の結果を達成できることが実証されました。

要約(オリジナル)

In Conversational Recommendation System (CRS), an agent is asked to recommend a set of items to users within natural language conversations. To address the need for both conversational capability and personalized recommendations, prior works have utilized separate recommendation and dialogue modules. However, such approach inevitably results in a discrepancy between recommendation results and generated responses. To bridge the gap, we propose a multi-task learning for a unified CRS, where a single model jointly learns both tasks via Contextualized Knowledge Distillation (ConKD). We introduce two versions of ConKD: hard gate and soft gate. The former selectively gates between two task-specific teachers, while the latter integrates knowledge from both teachers. Our gates are computed on-the-fly in a context-specific manner, facilitating flexible integration of relevant knowledge. Extensive experiments demonstrate that our single model significantly improves recommendation performance while enhancing fluency, and achieves comparable results in terms of diversity.

arxiv情報

著者 Yeongseo Jung,Eunseo Jung,Lei Chen
発行日 2023-10-27 13:06:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク