要約
ダイアログ感情分類 (DSC) と行為認識 (DAR) の共同タスクは、ダイアログ内の各発話の感情ラベルと行為ラベルを同時に予測することを目的としています。
ただし、現在の方法ではダイアログ コンテキストを一方向のみにエンコードしているため、コンテキストを完全に理解する能力が制限されています。
さらに、これらの方法では、感情と行為のラベル間の明確な相関関係が見落とされ、豊かな感情と行為の手がかりを捉える能力が不十分になり、効果的かつ正確な推論が妨げられます。
これらの問題に対処するために、特徴選択ネットワークと双方向マルチホップ推論ネットワークを活用して、豊富な感情と行動の手がかりを双方向で繰り返し抽出および統合する、双方向マルチホップ推論モデル (BMIM) を提案します。
やり方。
また、対比学習と二重学習を使用して、感情と行為のラベルの相関関係を明示的にモデル化します。
2 つの広く使用されているデータセットに対する実験では、BMIM が最先端のベースラインを DAR の F1 スコアで少なくとも 2.6%、DSC の F1 スコアで 1.4% 上回っていることが示されています。
さらに、私たちが提案したモデルはパフォーマンスを向上させるだけでなく、共同感情と行動予測タスクの解釈可能性も高めます。
要約(オリジナル)
The joint task of Dialog Sentiment Classification (DSC) and Act Recognition (DAR) aims to predict the sentiment label and act label for each utterance in a dialog simultaneously. However, current methods encode the dialog context in only one direction, which limits their ability to thoroughly comprehend the context. Moreover, these methods overlook the explicit correlations between sentiment and act labels, which leads to an insufficient ability to capture rich sentiment and act clues and hinders effective and accurate reasoning. To address these issues, we propose a Bi-directional Multi-hop Inference Model (BMIM) that leverages a feature selection network and a bi-directional multi-hop inference network to iteratively extract and integrate rich sentiment and act clues in a bi-directional manner. We also employ contrastive learning and dual learning to explicitly model the correlations of sentiment and act labels. Our experiments on two widely-used datasets show that BMIM outperforms state-of-the-art baselines by at least 2.6% on F1 score in DAR and 1.4% on F1 score in DSC. Additionally, Our proposed model not only improves the performance but also enhances the interpretability of the joint sentiment and act prediction task.
arxiv情報
著者 | Li Zheng,Fei Li,Yuyang Chai,Chong Teng,Donghong Ji |
発行日 | 2023-08-08 17:53:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google