Dialogue State Distillation Network with Inter-slot Contrastive Learning for Dialogue State Tracking

要約

タスク指向の対話システムでは、Dialogue State Tracking (DST) は、対話履歴からユーザーの意図を抽出することを目的としています。
現在、ほとんどの既存のアプローチはエラーの伝播に悩まされており、以前の対話状態を利用するときに関連情報を動的に選択することができません。
さらに、異なるスロットの更新間の関係は、DST の重要な手がかりを提供します。
ただし、既存のアプローチは、事前定義されたグラフのみに依存して関係を間接的に捉えます。
この論文では、以前の対話状態の関連情報を利用し、トレーニングとテストの間の利用のギャップを移行するための対話状態蒸留ネットワーク (DSDN) を提案します。
したがって、以前の対話状態を動的に利用し、エラーの伝播を同時に導入することを回避できます。
さらに、対話コンテキストからスロットの共同更新関係を効果的にキャプチャするために、スロット間の対照的な学習損失を提案します。
実験は、広く使用されている MultiWOZ 2.0 および MultiWOZ 2.1 データセットで行われます。
実験結果は、提案されたモデルがDSTの最先端のパフォーマンスを達成することを示しています。

要約(オリジナル)

In task-oriented dialogue systems, Dialogue State Tracking (DST) aims to extract users’ intentions from the dialogue history. Currently, most existing approaches suffer from error propagation and are unable to dynamically select relevant information when utilizing previous dialogue states. Moreover, the relations between the updates of different slots provide vital clues for DST. However, the existing approaches rely only on predefined graphs to indirectly capture the relations. In this paper, we propose a Dialogue State Distillation Network (DSDN) to utilize relevant information of previous dialogue states and migrate the gap of utilization between training and testing. Thus, it can dynamically exploit previous dialogue states and avoid introducing error propagation simultaneously. Further, we propose an inter-slot contrastive learning loss to effectively capture the slot co-update relations from dialogue context. Experiments are conducted on the widely used MultiWOZ 2.0 and MultiWOZ 2.1 datasets. The experimental results show that our proposed model achieves the state-of-the-art performance for DST.

arxiv情報

著者 Jing Xu,Dandan Song,Chong Liu,Siu Cheung Hui,Fei Li,Qiang Ju,Xiaonan He,Jian Xie
発行日 2023-03-07 07:00:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク