Unsupervised End-to-End Task-Oriented Dialogue with LLMs: The Power of the Noisy Channel

要約

トレーニング タスク指向の対話システムでは通常、API と対話するためにターンレベルのアノテーションが必要です。
対話状態と各ステップで実行されるシステムアクション。
これらのアノテーションは作成にコストがかかり、エラーが発生しやすく、ドメインとアノテーションの両方の専門知識が必要となる場合があります。
LLM の進歩により、完全に教師なしで機能するタスク指向の対話システムを構築するには、ラベルのないデータとスキーマ定義で十分であると仮説を立てています。
私たちは、(1) 明確に定義された API スキーマ、(2) ユーザーとエージェント間のラベルのない一連の対話のみの新しい教師なし設定を考慮します。
我々は、エンドツーエンドの対話エージェントを構築するためにノイズの多いチャネルモデルを使用してターンレベルのアノテーションを潜在変数として推論する期待値最大化(EM)を使用する革新的なアプローチを提案します。
MultiWOZ ベンチマークで当社のアプローチを評価すると、当社の方法は強力な GPT-3.5 ベースラインの対話成功率を 2 倍以上に高めています。

要約(オリジナル)

Training task-oriented dialogue systems typically requires turn-level annotations for interacting with their APIs: e.g. a dialogue state and the system actions taken at each step. These annotations can be costly to produce, error-prone, and require both domain and annotation expertise. With advances in LLMs, we hypothesize that unlabeled data and a schema definition are sufficient for building a working task-oriented dialogue system, completely unsupervised. We consider a novel unsupervised setting of only (1) a well-defined API schema (2) a set of unlabeled dialogues between a user and agent. We propose an innovative approach using expectation-maximization (EM) that infers turn-level annotations as latent variables using a noisy channel model to build an end-to-end dialogue agent. Evaluating our approach on the MultiWOZ benchmark, our method more than doubles the dialogue success rate of a strong GPT-3.5 baseline.

arxiv情報

著者 Brendan King,Jeffrey Flanigan
発行日 2024-10-16 16:01:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク