InstructERC: Reforming Emotion Recognition in Conversation with a Retrieval Multi-task LLMs Framework

要約

対話における感情認識 (ERC) の開発は、パイプライン設計の複雑さによって常に妨げられており、ERC モデルが特定のデータセットや対話パターンに過剰適合することがよくあります。
この研究では、大規模言語モデル (LLM) に基づいて、ERC タスクを判別フレームワークから生成フレームワークに再定式化する新しいアプローチ、すなわち InstructERC を提案します。
InstructERC には 2 つの重要な貢献があります。第 1 に、InstructERC は、シンプルかつ効果的な検索テンプレート モジュールを導入します。このモジュールは、履歴ダイアログ コンテンツ、ラベル ステートメント、および意味論的な類似性の高い感情ドメイン デモンストレーションを連結することにより、モデルが多粒度のダイアログ監視情報を明示的に統合するのに役立ちます。
さらに、会話の役割関係と会話における将来の感情傾向を暗黙的にモデル化するために、話者識別タスクと感情予測タスクという 2 つの追加の感情調整タスクを導入します。
当社の LLM ベースのプラグ アンド プレイ プラグイン フレームワークは、以前のすべてのモデルを大幅に上回り、一般的に使用される 3 つの ERC データセットで包括的な SOTA を実現します。
パラメーター効率の高いデータスケーリング実験の広範な分析により、InstructERC を実際のシナリオに適用するための経験的なガイダンスが提供されます。
私たちのコードはブラインドレビュー後にリリースされます。

要約(オリジナル)

The development of emotion recognition in dialogue (ERC) has been consistently hindered by the complexity of pipeline designs, leading to ERC models that often overfit to specific datasets and dialogue patterns. In this study, we propose a novel approach, namely InstructERC, to reformulates the ERC task from a discriminative framework to a generative framework based on Large Language Models (LLMs) . InstructERC has two significant contributions: Firstly, InstructERC introduces a simple yet effective retrieval template module, which helps the model explicitly integrate multi-granularity dialogue supervision information by concatenating the historical dialog content, label statement, and emotional domain demonstrations with high semantic similarity. Furthermore, we introduce two additional emotion alignment tasks, namely speaker identification and emotion prediction tasks, to implicitly model the dialogue role relationships and future emotional tendencies in conversations. Our LLM-based plug-and-play plugin framework significantly outperforms all previous models and achieves comprehensive SOTA on three commonly used ERC datasets. Extensive analysis of parameter-efficient and data-scaling experiments provide empirical guidance for applying InstructERC in practical scenarios. Our code will be released after blind review.

arxiv情報

著者 Shanglin Lei,Guanting Dong,Xiaoping Wang,Keheng Wang,Sirui Wang
発行日 2023-09-21 09:22:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク