X-ReCoSa: Multi-Scale Context Aggregation For Multi-Turn Dialogue Generation

要約

マルチターン対話生成では、応答は文脈のトピックや背景に関連するだけでなく、文脈の文中の単語やフレーズにも関連しています。
ただし、現在広く使用されている階層ダイアログ モデルは、発話レベル エンコーダーからのコンテキスト表現のみに依存しており、単語レベル エンコーダーによって出力される文表現は無視されます。
これにより、デコードおよび生成中に必然的に情報が失われます。
この論文では、この問題に取り組むために、階層型対話モデルのマルチスケールコンテキスト情報を集約する新しい対話モデル X-ReCoSa を提案します。
具体的には、生成デコーダを意図部分と生成部分の上下に分けます。
まず、意図部分は、応答の意図を生成するための入力としてコンテキスト表現を受け取ります。
次に、生成部は、文の表現に応じて単語を生成します。
したがって、階層情報は応答生成に融合されています。
英語のデータセット DailyDialog で実験を行います。
実験結果は、自動メトリックベースおよび人間ベースの評価の両方で、私たちの方法がベースラインモデルよりも優れていることを示しています。

要約(オリジナル)

In multi-turn dialogue generation, responses are not only related to the topic and background of the context but also related to words and phrases in the sentences of the context. However, currently widely used hierarchical dialog models solely rely on context representations from the utterance-level encoder, ignoring the sentence representations output by the word-level encoder. This inevitably results in a loss of information while decoding and generating. In this paper, we propose a new dialog model X-ReCoSa to tackle this problem which aggregates multi-scale context information for hierarchical dialog models. Specifically, we divide the generation decoder into upper and lower parts, namely the intention part and the generation part. Firstly, the intention part takes context representations as input to generate the intention of the response. Then the generation part generates words depending on sentence representations. Therefore, the hierarchical information has been fused into response generation. we conduct experiments on the English dataset DailyDialog. Experimental results exhibit that our method outperforms baseline models on both automatic metric-based and human-based evaluations.

arxiv情報

著者 Danqin Wu
発行日 2023-03-14 12:15:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク