要約
トレーニング タスク指向の対話システムでは通常、API と対話するためにターンレベルのアノテーションが必要です。
対話状態と各ステップで実行されるシステムアクション。
これらのアノテーションは作成にコストがかかり、エラーが発生しやすく、ドメインとアノテーションの両方の専門知識が必要となる場合があります。
LLM の進歩により、完全に教師なしで機能するタスク指向の対話システムを構築するには、ラベルなしのデータとスキーマ定義で十分であると仮説を立てています。
(1) 明確に定義された API スキーマ (2) ユーザーとエージェント間の一連のラベルのない対話のみを使用して、ノイズの多いチャネル モデルを使用してターンレベルのアノテーションを潜在変数として推論するための新しいアプローチを開発します。
これらの疑似ラベルを期待値最大化 (EM) で繰り返し改善し、推論されたラベルを使用してエンドツーエンドの対話エージェントをトレーニングします。
MultiWOZ ベンチマークで当社のアプローチを評価すると、当社の方法は強力な GPT-3.5 ベースラインの対話成功率を 2 倍以上に高めています。
要約(オリジナル)
Training task-oriented dialogue systems typically requires turn-level annotations for interacting with their APIs: e.g. a dialogue state and the system actions taken at each step. These annotations can be costly to produce, error-prone, and require both domain and annotation expertise. With advances in LLMs, we hypothesize unlabelled data and a schema definition are sufficient for building a working task-oriented dialogue system, completely unsupervised. Using only (1) a well-defined API schema (2) a set of unlabelled dialogues between a user and agent, we develop a novel approach for inferring turn-level annotations as latent variables using a noisy channel model. We iteratively improve these pseudo-labels with expectation-maximization (EM), and use the inferred labels to train an end-to-end dialogue agent. Evaluating our approach on the MultiWOZ benchmark, our method more than doubles the dialogue success rate of a strong GPT-3.5 baseline.
arxiv情報
著者 | Brendan King,Jeffrey Flanigan |
発行日 | 2024-04-23 16:51:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google