ERNetCL: A novel emotion recognition network in textual conversation based on curriculum learning strategy

要約

会話中の感情認識 (ERC) は、会話ロボットや質問応答システムなどの分野で研究のホットスポットとして浮上しています。
状況に応じた感情的な手がかりを効率的かつ適切に取得する方法は、ERC タスクにおける重要な課題の 1 つです。
既存の取り組みではコンテキストが完全にモデル化されておらず、複雑なネットワーク構造が採用されているため、パフォーマンスの向上が限られています。
本稿では、カリキュラム学習戦略に基づく新しい感情認識ネットワーク(ERNetCL)を提案する。
提案された ERNetCL は、主に時間エンコーダ (TE)、空間エンコーダ (SE)、およびカリキュラム学習 (CL) 損失で構成されます。
TE と SE を利用して、以前の方法の長所を単純化した方法で組み合わせて、会話内の時間的および空間的なコンテキスト情報を効率的にキャプチャします。
感情の変化から生じる有害な影響を軽減し、人間がカリキュラムを簡単なものから難しいものへと学習する方法をシミュレートするために、CL のアイデアを ERC タスクに適用して、ネットワーク パラメーターを段階的に最適化します。
トレーニングの開始時に、難しいサンプルには低い学習重みを割り当てます。
エポックが増加するにつれて、これらのサンプルの学習重みは徐々に増加します。
4 つのデータセットに対する広範な実験により、私たちが提案した方法が効果的であり、他のベースライン モデルを劇的に上回ることが示されました。

要約(オリジナル)

Emotion recognition in conversation (ERC) has emerged as a research hotspot in domains such as conversational robots and question-answer systems. How to efficiently and adequately retrieve contextual emotional cues has been one of the key challenges in the ERC task. Existing efforts do not fully model the context and employ complex network structures, resulting in limited performance gains. In this paper, we propose a novel emotion recognition network based on curriculum learning strategy (ERNetCL). The proposed ERNetCL primarily consists of temporal encoder (TE), spatial encoder (SE), and curriculum learning (CL) loss. We utilize TE and SE to combine the strengths of previous methods in a simplistic manner to efficiently capture temporal and spatial contextual information in the conversation. To ease the harmful influence resulting from emotion shift and simulate the way humans learn curriculum from easy to hard, we apply the idea of CL to the ERC task to progressively optimize the network parameters. At the beginning of training, we assign lower learning weights to difficult samples. As the epoch increases, the learning weights for these samples are gradually raised. Extensive experiments on four datasets exhibit that our proposed method is effective and dramatically beats other baseline models.

arxiv情報

著者 Jiang Li,Xiaoping Wang,Yingjian Liu,Zhigang Zeng
発行日 2024-01-25 09:42:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク