Semantic Parsing by Large Language Models for Intricate Updating Strategies of Zero-Shot Dialogue State Tracking

要約

ゼロショット ダイアログ ステート トラッキング (DST) は、時間とコストがかかる可能性がある、タスク指向のダイアログを取得して注釈を付けるという課題に対処します。
ただし、DST は単純なスロット充填を超えて拡張され、会話の進行に応じて対話状態を追跡するための効果的な更新戦略が必要です。
この論文では、ゼロショット DST に追加の複雑な更新戦略を導入するための、新しい In-Context Learning (ICL) 手法である ParsingDST を提案します。
私たちのアプローチは、強力なラージ言語モデル (LLM) を活用し、中間状態としてセマンティック解析を通じて元のダイアログ テキストを JSON に変換することにより、DST タスクを再定式化します。
また、テキストから JSON へのプロセスにおける更新戦略の有効性を確保するために、より多くのモジュールを含む新しいフレームワークも設計します。
実験結果は、私たちのアプローチが MultiWOZ 上の既存のゼロショット DST 手法よりも優れたパフォーマンスを示し、既存の ICL 手法と比較してジョイント ゴール精度 (JGA) とスロット精度が大幅に向上していることを示しています。

要約(オリジナル)

Zero-shot Dialogue State Tracking (DST) addresses the challenge of acquiring and annotating task-oriented dialogues, which can be time consuming and costly. However, DST extends beyond simple slot-filling and requires effective updating strategies for tracking dialogue state as conversations progress. In this paper, we propose ParsingDST, a new In-Context Learning (ICL) method, to introduce additional intricate updating strategies in zero-shot DST. Our approach reformulates the DST task by leveraging powerful Large Language Models (LLMs) and translating the original dialogue text to JSON through semantic parsing as an intermediate state. We also design a novel framework that includes more modules to ensure the effectiveness of updating strategies in the text-to-JSON process. Experimental results demonstrate that our approach outperforms existing zero-shot DST methods on MultiWOZ, exhibiting significant improvements in Joint Goal Accuracy (JGA) and slot accuracy compared to existing ICL methods.

arxiv情報

著者 Yuxiang Wu,Guanting Dong,Weiran Xu
発行日 2023-10-16 15:38:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク