Watch the Speakers: A Hybrid Continuous Attribution Network for Emotion Recognition in Conversation With Emotion Disentanglement

要約

会話中の感情認識 (ERC) は、実用化の可能性が非常に高いため、自然言語処理分野で広く注目を集めています。
既存の ERC 手法は、コンテキストの不十分なモデリング、対話関係の曖昧な把握、話者モデリングの過剰適合などにより、多様なシナリオへの一般化を達成する際に課題に直面しています。
この研究では、感情の継続と感情の帰属の観点からこれらの問題に対処するハイブリッド連続帰属ネットワーク (HCAN) を紹介します。
具体的には、HCAN は、グローバルな感情の連続性をモデル化するために、ハイブリッドの反復モジュールと注意ベースのモジュールを採用しています。
次に、各発話の感情内および感情間の帰属をモデル化する新しい感情帰属エンコーディング (EAE) が提案されます。
さらに、話者モデリングにおけるモデルのロバスト性を強化し、さまざまなシナリオでのパフォーマンスを向上させることを目的として、感情的な漂流を軽減し、感情的漂流を克服するための包括的な損失関数感情的認知損失 $\mathcal{L}_{\rm EC}$ が提案されています。
スピーカーモデリングに対するモデルのオーバーフィッティング。
私たちのモデルは 3 つのデータセットで最先端のパフォーマンスを達成し、私たちの研究の優位性を実証しています。
各モジュールの有効性を裏付ける証拠を提供するために、3 つのベンチマークに関する別の大規模な比較実験とアブレーション研究が実施されました。
一般化能力実験をさらに調査すると、私たちの方法における EAE モジュールのプラグ アンド プレイの性質が示されます。

要約(オリジナル)

Emotion Recognition in Conversation (ERC) has attracted widespread attention in the natural language processing field due to its enormous potential for practical applications. Existing ERC methods face challenges in achieving generalization to diverse scenarios due to insufficient modeling of context, ambiguous capture of dialogue relationships and overfitting in speaker modeling. In this work, we present a Hybrid Continuous Attributive Network (HCAN) to address these issues in the perspective of emotional continuation and emotional attribution. Specifically, HCAN adopts a hybrid recurrent and attention-based module to model global emotion continuity. Then a novel Emotional Attribution Encoding (EAE) is proposed to model intra- and inter-emotional attribution for each utterance. Moreover, aiming to enhance the robustness of the model in speaker modeling and improve its performance in different scenarios, A comprehensive loss function emotional cognitive loss $\mathcal{L}_{\rm EC}$ is proposed to alleviate emotional drift and overcome the overfitting of the model to speaker modeling. Our model achieves state-of-the-art performance on three datasets, demonstrating the superiority of our work. Another extensive comparative experiments and ablation studies on three benchmarks are conducted to provided evidence to support the efficacy of each module. Further exploration of generalization ability experiments shows the plug-and-play nature of the EAE module in our method.

arxiv情報

著者 Shanglin Lei,Xiaoping Wang,Guanting Dong,Jiang Li,Yingjian Liu
発行日 2023-09-18 14:18:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.SD, eess.AS パーマリンク