要約
会話における感情認識(ERC)において、一般化された頑健な表現を抽出することは大きな課題である。この課題に対処するため、我々はクラス-スプレッド構造化表現を学習するための教師付き敵対的コントラスト学習(SACL)フレームワークを提案する。このフレームワークは、コントラストを考慮した敵対的な学習を適用し、最悪のケースを想定したサンプルを生成し、元のサンプルと敵対的なサンプルの両方に対して、クラススプレッドコントラスト学習の目標を共同で使用する。ラベルレベルの特徴の一貫性を効果的に利用し、きめ細かなクラス内特徴を保持することができる。文脈依存のデータに対する敵対的摂動の悪影響を避けるため、文脈からより多様な特徴を学習し、モデルの文脈頑健性を強化するために、文脈的敵対的学習戦略を設計する。このフレームワークの下で、ERCのためのラベル整合的で文脈にロバストな感情特徴を学習するために、シーケンスベースの手法SACL-LSTMを開発する。3つのデータセットを用いた実験により、SACL-LSTMがERCにおいて最先端の性能を達成することが実証された。また、拡張実験により、SACLフレームワークの有効性を証明する。
要約(オリジナル)
Extracting generalized and robust representations is a major challenge in emotion recognition in conversations (ERC). To address this, we propose a supervised adversarial contrastive learning (SACL) framework for learning class-spread structured representations. The framework applies contrast-aware adversarial training to generate worst-case samples and uses a joint class-spread contrastive learning objective on both original and adversarial samples. It can effectively utilize label-level feature consistency and retain fine-grained intra-class features. To avoid the negative impact of adversarial perturbations on context-dependent data, we design a contextual adversarial training strategy to learn more diverse features from context and enhance the model’s context robustness. We develop a sequence-based method SACL-LSTM under this framework, to learn label-consistent and context-robust emotional features for ERC. Experiments on three datasets demonstrate that SACL-LSTM achieves state-of-the-art performance on ERC. Extended experiments prove the effectiveness of the SACL framework.
arxiv情報
著者 | Dou Hu,Yinan Bao,Lingwei Wei,Wei Zhou,Songlin Hu |
発行日 | 2023-06-02 12:52:38+00:00 |
arxivサイト | arxiv_id(pdf) |