Continual Dialogue State Tracking via Example-Guided Question Answering

要約

対話システムは新しいサービスに対応するために頻繁に更新されますが、新しいサービスのデータを使用して継続的にトレーニングすることで単純に更新すると、以前に学習したサービスのパフォーマンスが低下します。
会話の進行に応じてユーザーの目標を推定する対話システムの重要なコンポーネントである対話状態追跡 (DST) は、単純な自然言語理解タスクであるという洞察に動機付けられ、これを詳細な例に基づいた質問応答のバンドルとして再定式化することを提案します。
サービス間のタスクの移動を最小限に抑え、継続的な学習に利益をもたらします。
私たちのアプローチは、サービス固有の暗記を軽減し、与えられた質問と例を文脈化して会話から必要な情報を抽出するモデルを教えます。
同様の対話状態変化を伴うターンを識別するように訓練された取得者によって取得されたコンテキスト内の例から学習することによって、わずか 6,000 万のパラメーターを持つモデルが大幅な向上を達成できることがわかりました。
私たちの方法と対話レベルのメモリ再生を組み合わせることで、私たちのアプローチは、複雑な正則化やパラメータ拡張の方法に依存することなく、DST 継続学習メトリクスで最先端のパフォーマンスを達成します。

要約(オリジナル)

Dialogue systems are frequently updated to accommodate new services, but naively updating them by continually training with data for new services in diminishing performance on previously learnt services. Motivated by the insight that dialogue state tracking (DST), a crucial component of dialogue systems that estimates the user’s goal as a conversation proceeds, is a simple natural language understanding task, we propose reformulating it as a bundle of granular example-guided question answering tasks to minimize the task shift between services and thus benefit continual learning. Our approach alleviates service-specific memorization and teaches a model to contextualize the given question and example to extract the necessary information from the conversation. We find that a model with just 60M parameters can achieve a significant boost by learning to learn from in-context examples retrieved by a retriever trained to identify turns with similar dialogue state changes. Combining our method with dialogue-level memory replay, our approach attains state of the art performance on DST continual learning metrics without relying on any complex regularization or parameter expansion methods.

arxiv情報

著者 Hyundong Cho,Andrea Madotto,Zhaojiang Lin,Khyathi Raghavi Chandu,Satwik Kottur,Jing Xu,Jonathan May,Chinnadhurai Sankar
発行日 2023-12-14 06:58:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク