From Chatter to Matter: Addressing Critical Steps of Emotion Recognition Learning in Task-oriented Dialogue

要約

会話中の感情認識 (ERC) は、人間のような会話エージェントを構築するための重要なタスクです。
ERC にはおしゃべり対話のために多大な努力が払われてきましたが、タスク指向の対応物はほとんど放置されています。
おしゃべり ERC モデルをタスク指向対話 (ToD) に直接適用すると、これらのモデルは ToD における感情とタスク完了の相関関係などの主要な機能を見落とすため、最適なパフォーマンスが得られません。
このペーパーでは、おしゃべりの ERC モデルをタスク指向のモデルに変え、データ、機能、目的という 3 つの重要な側面に対処するフレームワークを提案します。
まず、ERC のパフォーマンスを向上させるために、稀な感情を増強する 2 つの方法を考案します。
次に、ユーザーの目標から重要な情報を組み込むための補助機能として対話状態を使用します。
最後に、ToD のマルチアスペクト感情定義を利用して、マルチタスク学習目標と新しい感情距離加重損失関数を考案します。
私たちのフレームワークは、ToD のユーザー感情の大規模データセットである EmoWOZ 上のさまざまなおしゃべり ERC モデルに大幅な改善をもたらしました。
さらに、さまざまな ToD データセットでユーザーの満足度を予測するために、最良の結果となるモデルの一般化可能性を調査します。
教師付きベースラインとの比較では、強力なゼロショット機能が示されており、より広範なシナリオでフレームワークが使用できる可能性が強調されています。

要約(オリジナル)

Emotion recognition in conversations (ERC) is a crucial task for building human-like conversational agents. While substantial efforts have been devoted to ERC for chit-chat dialogues, the task-oriented counterpart is largely left unattended. Directly applying chit-chat ERC models to task-oriented dialogues (ToDs) results in suboptimal performance as these models overlook key features such as the correlation between emotions and task completion in ToDs. In this paper, we propose a framework that turns a chit-chat ERC model into a task-oriented one, addressing three critical aspects: data, features and objective. First, we devise two ways of augmenting rare emotions to improve ERC performance. Second, we use dialogue states as auxiliary features to incorporate key information from the goal of the user. Lastly, we leverage a multi-aspect emotion definition in ToDs to devise a multi-task learning objective and a novel emotion-distance weighted loss function. Our framework yields significant improvements for a range of chit-chat ERC models on EmoWOZ, a large-scale dataset for user emotion in ToDs. We further investigate the generalisability of the best resulting model to predict user satisfaction in different ToD datasets. A comparison with supervised baselines shows a strong zero-shot capability, highlighting the potential usage of our framework in wider scenarios.

arxiv情報

著者 Shutong Feng,Nurul Lubis,Benjamin Ruppik,Christian Geishauser,Michael Heck,Hsien-chin Lin,Carel van Niekerk,Renato Vukovic,Milica Gašić
発行日 2023-08-24 08:46:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク