要約
インターネット上の会話データの広範な蓄積に伴い、会話中の感情認識 (ERC) への注目が高まっています。
このタスクのこれまでの取り組みは、主にコンテキストおよび話者固有の機能を活用すること、または異種の外部常識知識を統合することに焦点を当てていました。
それらの中には、将来のコンテキストに大きく依存するものもありますが、現実のシナリオでは常に利用できるとは限りません。
この事実は、ERC を改善するために疑似未来コンテキストを生成することを私たちにインスピレーションを与えます。
具体的には、ある発話について、事前にトレーニングされた言語モデルを使用して将来のコンテキストを生成します。これには、歴史的なものと同種の会話形式で追加の有益な知識が含まれる可能性があります。
これらの特性により、疑似未来コンテキストが歴史的コンテキストおよび歴史的話者固有のコンテキストと容易に融合され、複数のコンテキストを体系的に統合する概念的に単純なフレームワークが得られます。
4 つの ERC データセットに関する実験結果は、私たちの方法の優位性を示しています。
さらに詳細な分析により、特に比較的コンテキストに依存しない会話において、疑似未来コンテキストは実際のコンテキストにある程度匹敵する可能性があることが明らかになりました。
要約(オリジナル)
With the extensive accumulation of conversational data on the Internet, emotion recognition in conversations (ERC) has received increasing attention. Previous efforts of this task mainly focus on leveraging contextual and speaker-specific features, or integrating heterogeneous external commonsense knowledge. Among them, some heavily rely on future contexts, which, however, are not always available in real-life scenarios. This fact inspires us to generate pseudo future contexts to improve ERC. Specifically, for an utterance, we generate its future context with pre-trained language models, potentially containing extra beneficial knowledge in a conversational form homogeneous with the historical ones. These characteristics make pseudo future contexts easily fused with historical contexts and historical speaker-specific contexts, yielding a conceptually simple framework systematically integrating multi-contexts. Experimental results on four ERC datasets demonstrate our method’s superiority. Further in-depth analyses reveal that pseudo future contexts can rival real ones to some extent, especially in relatively context-independent conversations.
arxiv情報
著者 | Yinyi Wei,Shuaipeng Liu,Hailei Yan,Wei Ye,Tong Mo,Guanglu Wan |
発行日 | 2023-06-27 10:51:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google