Understanding Emotion Valence is a Joint Deep Learning Task

要約

話者の発話または書面による投稿の価数分析は、会話中の感情状態の活性化と変化を理解するのに役立ちます。
最近では、話者が感じる感情とその発現を説明するために、感情伝達体 (EC) の概念が導入されました。
この研究では、マルチタスク学習アプローチを通じて価数と EC の自然な相互依存性を調査します。
価数および EC 予測タスクの単一タスク、2 ステップ、および結合設定の事前トレーニング済み言語モデル (PLM) を実験します。
各設定における生成 (GPT-2) アーキテクチャと識別 (BERT) アーキテクチャのパフォーマンスを比較および評価します。
1 つのタスクのグラウンド トゥルース ラベルを提供すると、他のタスクのモデルの予測パフォーマンスが向上することが観察されました。
さらに、識別モデルが結合予測設定において原子価と EC 予測タスクの最適なトレードオフを達成していることも観察しました。
その結果、両方のタスクを実行する単一のモデルが得られ、トレーニング時と推論時の計算リソースが節約されます。

要約(オリジナル)

The valence analysis of speakers’ utterances or written posts helps to understand the activation and variations of the emotional state throughout the conversation. More recently, the concept of Emotion Carriers (EC) has been introduced to explain the emotion felt by the speaker and its manifestations. In this work, we investigate the natural inter-dependency of valence and ECs via a multi-task learning approach. We experiment with Pre-trained Language Models (PLM) for single-task, two-step, and joint settings for the valence and EC prediction tasks. We compare and evaluate the performance of generative (GPT-2) and discriminative (BERT) architectures in each setting. We observed that providing the ground truth label of one task improves the prediction performance of the models in the other task. We further observed that the discriminative model achieves the best trade-off of valence and EC prediction tasks in the joint prediction setting. As a result, we attain a single model that performs both tasks, thus, saving computation resources at training and inference times.

arxiv情報

著者 Gabriel Roccabruna,Seyed Mahed Mousavi,Giuseppe Riccardi
発行日 2023-10-31 13:58:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク