要約
会話の感情認識 (ERC) の分野は、文の特徴のエンコーディングとコンテキスト モデリングを分離することに重点が置かれており、統一された設計に基づく生成パラダイムの探求が不足しています。
この研究では、大規模言語モデル (LLM) に基づいて、ERC タスクを判別フレームワークから生成フレームワークに再定式化する新しいアプローチ \textbf{InstructERC} を提案します。
InstructERC は 3 つの重要な貢献をします。(1) シンプルだが効果的な検索テンプレート モジュールを導入し、モデルが複数粒度の対話監視情報を明示的に統合するのに役立ちます。
(2) 対話の役割関係と会話における将来の感情傾向を暗黙的にモデル化するために、2 つの追加の感情調整タスク、つまり話者識別タスクと感情予測タスクを導入します。
(3) 実際のアプリケーション シナリオに合わせて、フィーリング ホイールを通じてベンチマーク全体で感情ラベルを先駆的に統合します。
InstructERC は、この統合されたデータセット上でも依然として優れたパフォーマンスを発揮します。
当社の LLM ベースのプラグイン フレームワークは、以前のすべてのモデルを大幅に上回り、一般的に使用される 3 つの ERC データセットで包括的な SOTA を実現します。
パラメータ効率の高いデータスケーリング実験の広範な分析は、それを実際のシナリオに適用するための経験的なガイダンスを提供します。
私たちのコードと調整された統合データセット (UIME) は、Github リンクで見つけることができます。\footnote{正式な実現は Github リンクで見つけることができます: https://github.com/LIN-SHANG/InstructERC}
要約(オリジナル)
The field of emotion recognition of conversation (ERC) has been focusing on separating sentence feature encoding and context modeling, lacking exploration in generative paradigms based on unified designs. In this study, we propose a novel approach, \textbf{InstructERC}, to reformulate the ERC task from a discriminative framework to a generative framework based on Large Language Models (LLMs). InstructERC makes three significant contributions: (1) it introduces a simple yet effective retrieval template module, which helps the model explicitly integrate multi-granularity dialogue supervision information. (2) We introduce two additional emotion alignment tasks, namely speaker identification and emotion prediction tasks, to implicitly model the dialogue role relationships and future emotional tendencies in conversations. (3) Pioneeringly, we unify emotion labels across benchmarks through the feeling wheel to fit real application scenarios. InstructERC still perform impressively on this unified dataset. Our LLM-based plugin framework significantly outperforms all previous models and achieves comprehensive SOTA on three commonly used ERC datasets. Extensive analysis of parameter-efficient and data-scaling experiments provides empirical guidance for applying it in practical scenarios. Our code and aligned unified dataset (UIME) can be found in the Github link.\footnote{You can find the offical realization in the Github link: https://github.com/LIN-SHANG/InstructERC}
arxiv情報
著者 | Shanglin Lei,Guanting Dong,Xiaoping Wang,Keheng Wang,Sirui Wang |
発行日 | 2024-03-12 12:54:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google