Emotion Prediction Oriented method with Multiple Supervisions for Emotion-Cause Pair Extraction

要約

感情-原因ペア抽出 (ECPE) タスクは、注釈のない感情テキストからすべての感情のペアとその原因を抽出することを目的としています。
これまでの研究では、通常、感情と原因の 2 つの視点から感情と原因のペアを抽出していました。
ただし、感情抽出は、原因抽出よりも ECPE タスクにとってより重要です。
この分析に動機付けられて、感情予測の可能性を十分に活用して感情原因ペア抽出を強化することを目的として、感情予測に向けたエンドツーエンドの感情原因抽出アプローチ (EPO-ECPE) を提案します。
感情予測と感情原因ペア抽出の間の強い依存関係を考慮して、トレーニングプロセスでそれらの改善を共有するための同期メカニズムを提案します。
すなわち、感情予測の向上により、感情原因ペア抽出が容易になり、感情原因ペア抽出の結果を用いて、感情予測の精度を同時に向上させることができる。
感情原因ペアの抽出は、真正ペア監督と偽ペア監督に分け、真正ペア監督は感情原因ペアである可能性が高いペアから学習します。
対照的に、偽のペアの監視は他のペアから学習します。
このように、真正ペアから感情原因ペアを直接抽出することができ、抽出の難易度を下げることができる。
実験結果は、私たちのアプローチが 13 の比較システムよりも優れており、新しい最先端のパフォーマンスを達成することを示しています。

要約(オリジナル)

Emotion-cause pair extraction (ECPE) task aims to extract all the pairs of emotions and their causes from an unannotated emotion text. The previous works usually extract the emotion-cause pairs from two perspectives of emotion and cause. However, emotion extraction is more crucial to the ECPE task than cause extraction. Motivated by this analysis, we propose an end-to-end emotion-cause extraction approach oriented toward emotion prediction (EPO-ECPE), aiming to fully exploit the potential of emotion prediction to enhance emotion-cause pair extraction. Considering the strong dependence between emotion prediction and emotion-cause pair extraction, we propose a synchronization mechanism to share their improvement in the training process. That is, the improvement of emotion prediction can facilitate the emotion-cause pair extraction, and then the results of emotion-cause pair extraction can also be used to improve the accuracy of emotion prediction simultaneously. For the emotion-cause pair extraction, we divide it into genuine pair supervision and fake pair supervision, where the genuine pair supervision learns from the pairs with more possibility to be emotion-cause pairs. In contrast, fake pair supervision learns from other pairs. In this way, the emotion-cause pairs can be extracted directly from the genuine pair, thereby reducing the difficulty of extraction. Experimental results show that our approach outperforms the 13 compared systems and achieves new state-of-the-art performance.

arxiv情報

著者 Guimin Hu,Yi Zhao,Guangming Lu
発行日 2023-02-24 02:45:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク