要約
対話トピックのセグメンテーションは、さまざまな種類の対話モデリング タスクにおいて重要な役割を果たします。
最先端の教師なし DTS 手法は、隣接する談話マッチングと擬似セグメンテーションを通じて会話データからトピックを意識した談話表現を学習し、ラベルのない会話関係における有用な手がかりをさらに掘り出します。
ただし、マルチラウンド対話では、談話に共参照や省略が含まれることが多く、これらの談話を表現学習に直接使用すると、隣接する談話マッチングタスクでの意味的類似性の計算に悪影響を与える可能性があります。
会話関係における有用な手がかりを最大限に活用するために、本研究では、発話書き換え(UR)技術と教師なし学習アルゴリズムを組み合わせた新しい教師なし対話トピックセグメンテーション手法を提案し、ラベルのない対話における有用な手がかりを効率的に利用します。
相互参照語と省略された単語を回復するため。
既存の教師なしモデルと比較して、提案された談話書き換えトピック分割モデル (UR-DTS) はトピック分割の精度を大幅に向上させます。
主な発見は、DialSeg711 のパフォーマンスが絶対エラー スコアと WD の点で約 6% 向上し、絶対エラー スコアの点で 11.42%、WD の点で 12.97% を達成したことです。
Doc2Dial では、絶対エラー スコアと WD がそれぞれ約 3% と 2% 向上し、その結果、SOTA は絶対エラー スコアで 35.17%、WD で 38.49% に達しました。
これは、このモデルが会話トピックのニュアンスだけでなく、ラベルのない会話を利用することの有用性と課題も把握するのに非常に効果的であることを示しています。
要約(オリジナル)
Dialogue topic segmentation plays a crucial role in various types of dialogue modeling tasks. The state-of-the-art unsupervised DTS methods learn topic-aware discourse representations from conversation data through adjacent discourse matching and pseudo segmentation to further mine useful clues in unlabeled conversational relations. However, in multi-round dialogs, discourses often have co-references or omissions, leading to the fact that direct use of these discourses for representation learning may negatively affect the semantic similarity computation in the neighboring discourse matching task. In order to fully utilize the useful cues in conversational relations, this study proposes a novel unsupervised dialog topic segmentation method that combines the Utterance Rewriting (UR) technique with an unsupervised learning algorithm to efficiently utilize the useful cues in unlabeled dialogs by rewriting the dialogs in order to recover the co-referents and omitted words. Compared with existing unsupervised models, the proposed Discourse Rewriting Topic Segmentation Model (UR-DTS) significantly improves the accuracy of topic segmentation. The main finding is that the performance on DialSeg711 improves by about 6% in terms of absolute error score and WD, achieving 11.42% in terms of absolute error score and 12.97% in terms of WD. on Doc2Dial the absolute error score and WD improves by about 3% and 2%, respectively, resulting in SOTA reaching 35.17% in terms of absolute error score and 38.49% in terms of WD. This shows that the model is very effective in capturing the nuances of conversational topics, as well as the usefulness and challenges of utilizing unlabeled conversations.
arxiv情報
著者 | Xia Hou,Qifeng Li,Tongliang Li |
発行日 | 2024-09-12 00:27:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google