Supervised Adversarial Contrastive Learning for Emotion Recognition in Conversations

要約

一般化された堅牢な表現を抽出することは、会話における感情認識 (ERC) における大きな課題です。
これに対処するために、教師ありの方法でクラス拡散構造化表現を学習するための教師あり敵対的対比学習 (SACL) フレームワークを提案します。
SACL は、コントラストを意識した敵対的トレーニングを適用して最悪の場合のサンプルを生成し、共同クラス拡散対比学習を使用して構造化表現を抽出します。
ラベルレベルの機能の一貫性を効果的に利用し、きめの細かいクラス内機能を保持できます。
コンテキスト依存データに対する敵対的摂動の悪影響を回避するために、コンテキストからより多様な特徴を学習し、モデルのコンテキスト堅牢性を強化するコンテキスト敵対的トレーニング (CAT) 戦略を設計します。
CAT のフレームワークの下で、ERC のラベル一貫性とコンテキスト堅牢性の機能を学習するシーケンスベースの SACL-LSTM を開発します。
3 つのデータセットに対する実験では、SACL-LSTM が ERC 上で最先端のパフォーマンスを達成することが示されています。
拡張実験により、SACL と CAT の有効性が証明されました。

要約(オリジナル)

Extracting generalized and robust representations is a major challenge in emotion recognition in conversations (ERC). To address this, we propose a supervised adversarial contrastive learning (SACL) framework for learning class-spread structured representations in a supervised manner. SACL applies contrast-aware adversarial training to generate worst-case samples and uses joint class-spread contrastive learning to extract structured representations. It can effectively utilize label-level feature consistency and retain fine-grained intra-class features. To avoid the negative impact of adversarial perturbations on context-dependent data, we design a contextual adversarial training (CAT) strategy to learn more diverse features from context and enhance the model’s context robustness. Under the framework with CAT, we develop a sequence-based SACL-LSTM to learn label-consistent and context-robust features for ERC. Experiments on three datasets show that SACL-LSTM achieves state-of-the-art performance on ERC. Extended experiments prove the effectiveness of SACL and CAT.

arxiv情報

著者 Dou Hu,Yinan Bao,Lingwei Wei,Wei Zhou,Songlin Hu
発行日 2023-07-09 23:27:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク