EmoGRACE: Aspect-based emotion analysis for social media data

要約

センチメント分析は文からアスペクトレベル、つまり感情に関連する具体的な用語の識別に進みましたが、アスペクトベースの感情分析(ABEA)の同等の分野は、データセットのボトルネックと、バイナリ感情とは対照的に感情クラスの複雑さの増加に直面しています。
このペーパーでは、2,621個の英語ツイートで構成される最初のABEAトレーニングデータセットを生成し、アスペクト用語抽出(ATE)およびアスペクト感情分類(AEC)のABEAサブタスクのBERTベースのモデルを微調整することにより、これらのギャップに対処します。
データセット注釈プロセスは、Shaver et al。による階層感情理論に基づいていました。
[1]そして、ラベルの一貫性を促進するために、グループ注釈と多数決の投票戦略を利用しました。
結果のデータセットには、怒り、悲しみ、幸福、恐怖、および非クラスのためのアスペクトレベルの感情ラベルが含まれていました。
新しいABEAトレーニングデータセットを使用して、Luo et al。
[2]はABEAのために微調整されました。
結果は、ATEで70.1%のF1スコア、ジョイントATEおよびAEC抽出で46.9%のパフォーマンスプラトーを反映しています。
モデルパフォーマンスの制限要因は、タスクの複雑さの増加と組み合わされた小さなトレーニングデータセットサイズとして広く識別され、モデルの過剰適合と限られた能力が新しいデータに適切に一般化することができます。

要約(オリジナル)

While sentiment analysis has advanced from sentence to aspect-level, i.e., the identification of concrete terms related to a sentiment, the equivalent field of Aspect-based Emotion Analysis (ABEA) is faced with dataset bottlenecks and the increased complexity of emotion classes in contrast to binary sentiments. This paper addresses these gaps, by generating a first ABEA training dataset, consisting of 2,621 English Tweets, and fine-tuning a BERT-based model for the ABEA sub-tasks of Aspect Term Extraction (ATE) and Aspect Emotion Classification (AEC). The dataset annotation process was based on the hierarchical emotion theory by Shaver et al. [1] and made use of group annotation and majority voting strategies to facilitate label consistency. The resulting dataset contained aspect-level emotion labels for Anger, Sadness, Happiness, Fear, and a None class. Using the new ABEA training dataset, the state-of-the-art ABSA model GRACE by Luo et al. [2] was fine-tuned for ABEA. The results reflected a performance plateau at an F1-score of 70.1% for ATE and 46.9% for joint ATE and AEC extraction. The limiting factors for model performance were broadly identified as the small training dataset size coupled with the increased task complexity, causing model overfitting and limited abilities to generalize well on new data.

arxiv情報

著者 Christina Zorenböhmer,Sebastian Schmidt,Bernd Resch
発行日 2025-03-19 11:48:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク