Using Domain Knowledge to Guide Dialog Structure Induction via Neural Probabilistic Soft Logic

要約

ダイアログ構造誘導 (DSI) は、特定の目標指向のダイアログの潜在的なダイアログ構造 (つまり、一連のダイアログ状態とその時間的遷移) を推測するタスクです。
これは、最新の対話システムの設計と談話分析にとって重要なコンポーネントです。
既存の DSI アプローチは純粋にデータ駆動型であることが多く、ドメイン知識にアクセスせずに潜在状態を推論するモデルを展開するか、トレーニング コーパスが制限されている/ノイズが多い場合にパフォーマンスが低下するか、テスト ダイアログがトレーニング ドメインからの分布シフトを示す場合に困難を伴います。
この研究では、これらの問題に対する潜在的な解決策として、神経記号的アプローチを探求しています。
生成ニューラル モデルの潜在空間に記号知識を注入する原理的なアプローチである、Neural Probabilistic Soft Logic Dialogue Structure Induction (NEUPSL DSI) を紹介します。
私たちは、NEUPSL DSI 学習が隠れ表現品質、少数ショット学習、および領域外汎化パフォーマンスに及ぼす影響について、徹底的な実証的調査を実施します。
3 つのダイアログ構造誘導データセットと、標準およびクロスドメイン一般化のための教師なし設定および半教師あり設定にわたって、NEUPSL DSI を使用したシンボリック ナレッジの注入により、標準ベースラインを超えるパフォーマンスの一貫した向上が実現します。

要約(オリジナル)

Dialog Structure Induction (DSI) is the task of inferring the latent dialog structure (i.e., a set of dialog states and their temporal transitions) of a given goal-oriented dialog. It is a critical component for modern dialog system design and discourse analysis. Existing DSI approaches are often purely data-driven, deploy models that infer latent states without access to domain knowledge, underperform when the training corpus is limited/noisy, or have difficulty when test dialogs exhibit distributional shifts from the training domain. This work explores a neural-symbolic approach as a potential solution to these problems. We introduce Neural Probabilistic Soft Logic Dialogue Structure Induction (NEUPSL DSI), a principled approach that injects symbolic knowledge into the latent space of a generative neural model. We conduct a thorough empirical investigation on the effect of NEUPSL DSI learning on hidden representation quality, few-shot learning, and out-of-domain generalization performance. Over three dialog structure induction datasets and across unsupervised and semi-supervised settings for standard and cross-domain generalization, the injection of symbolic knowledge using NEUPSL DSI provides a consistent boost in performance over the canonical baselines.

arxiv情報

著者 Connor Pryor,Quan Yuan,Jeremiah Liu,Mehran Kazemi,Deepak Ramachandran,Tania Bedrax-Weiss,Lise Getoor
発行日 2024-03-26 16:42:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク