要約
対話行為のアノテーションは、タスク指向の対話システムにおける応答生成の品質を向上させるために重要です。
ただし、異なるデータセットやタスクには互換性のないアノテーションが含まれる可能性があるため、対話行為を使用して一般化可能な方法で応答生成を制御することは困難な場合があります。
潜在アクション空間または強化学習を利用する代替手法は明示的な注釈を必要としませんが、解釈可能性に欠けたり、タスク固有の報酬を定義するのが困難になる可能性があります。
この研究では、潜在空間での対話行為を表す新しいエンドツーエンドの潜在対話行為モデル (DiactTOD) を紹介します。
DiactTOD は、大規模なコーパスで事前トレーニングされた場合、ゼロショット方式でこれらの潜在表現を使用して、対話行為を予測および制御し、制御可能な応答を生成することができます。
私たちのアプローチは、エンドツーエンド構成とポリシー最適化構成の両方によるゼロショット、少数ショット、フルデータの微調整など、MultiWOZ データセットの幅広い実験設定にわたって最先端のパフォーマンスを実証します。
要約(オリジナル)
Dialogue act annotations are important to improve response generation quality in task-oriented dialogue systems. However, it can be challenging to use dialogue acts to control response generation in a generalizable way because different datasets and tasks may have incompatible annotations. While alternative methods that utilize latent action spaces or reinforcement learning do not require explicit annotations, they may lack interpretability or face difficulties defining task-specific rewards. In this work, we present a novel end-to-end latent dialogue act model (DiactTOD) that represents dialogue acts in a latent space. DiactTOD, when pre-trained on a large corpus, is able to predict and control dialogue acts to generate controllable responses using these latent representations in a zero-shot fashion. Our approach demonstrates state-of-the-art performance across a wide range of experimental settings on the MultiWOZ dataset, including zero-shot, few-shot, and full data fine-tuning with both end-to-end and policy optimization configurations.
arxiv情報
著者 | Qingyang Wu,James Gung,Raphael Shu,Yi Zhang |
発行日 | 2023-08-01 23:29:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google