MoPE: Mixture of Prefix Experts for Zero-Shot Dialogue State Tracking

要約

ゼロショット ダイアログ ステート トラッキング (DST) は、知識を目に見えない領域に転送し、新しいデータセットに注釈を付けるコストを削減します。
以前のゼロショット DST モデルには、主にドメイン転送と部分予測の問題がありました。
これらの課題に対処するために、異なるドメインの同様のスロット間の接続を確立する Mixture of Prefix Experts (MoPE) を提案します。これにより、目に見えないドメインでのモデル転送パフォーマンスが強化されます。
実験結果は、MoPE-DST が MultiWOZ2.1 で 57.13%、SGD で 55.40% の共同目標精度を達成することを示しています。

要約(オリジナル)

Zero-shot dialogue state tracking (DST) transfers knowledge to unseen domains, reducing the cost of annotating new datasets. Previous zero-shot DST models mainly suffer from domain transferring and partial prediction problems. To address these challenges, we propose Mixture of Prefix Experts (MoPE) to establish connections between similar slots in different domains, which strengthens the model transfer performance in unseen domains. Empirical results demonstrate that MoPE-DST achieves the joint goal accuracy of 57.13% on MultiWOZ2.1 and 55.40% on SGD.

arxiv情報

著者 Tianwen Tang,Tong Zhu,Haodong Liu,Yin Bai,Jia Cheng,Wenliang Chen
発行日 2024-04-12 15:57:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク