Towards a Generative Approach for Emotion Detection and Reasoning

要約

大規模言語モデル (LLM) は、思考連鎖 (CoT) プロンプト手法を使用した数学的および常識的推論タスクにおいて優れたパフォーマンスを実証しています。
しかし、入力プロンプトに「段階的に考えてみましょう」を連結することで、感情的な推論を実行できるでしょうか?
この論文では、LLM を使用したゼロショット感情検出と感情推論への新しいアプローチを紹介するとともに、この疑問を調査します。
既存の最先端のゼロショット アプローチは、テキスト含意モデルに依存して、入力テキストに最も適切な感情ラベルを選択します。
これは、モデルをラベルの固定セットに強く制限しており、感情分析が必要な多くのアプリケーションには適していない、または十分ではない可能性があると私たちは主張します。
代わりに、感情分析の問題を生成的な質問応答 (QA) タスクとして組み立てることを提案します。
私たちのアプローチでは、関連するコンテキストや背景知識を生成する 2 段階の方法論を使用して、感情検出の質問に段階的に答えます。
私たちの論文は、テキストの感情検出と感情推論のタスクに共同で取り組むために生成的アプローチを使用する最初の研究です。
私たちは 2 つの一般的な感情検出データセットに対するアプローチを評価し、感情推論システムのさらなるトレーニングと微調整のために、きめの細かい感情ラベルと説明もリリースします。

要約(オリジナル)

Large language models (LLMs) have demonstrated impressive performance in mathematical and commonsense reasoning tasks using chain-of-thought (CoT) prompting techniques. But can they perform emotional reasoning by concatenating `Let’s think step-by-step’ to the input prompt? In this paper we investigate this question along with introducing a novel approach to zero-shot emotion detection and emotional reasoning using LLMs. Existing state of the art zero-shot approaches rely on textual entailment models to choose the most appropriate emotion label for an input text. We argue that this strongly restricts the model to a fixed set of labels which may not be suitable or sufficient for many applications where emotion analysis is required. Instead, we propose framing the problem of emotion analysis as a generative question-answering (QA) task. Our approach uses a two step methodology of generating relevant context or background knowledge to answer the emotion detection question step-by-step. Our paper is the first work on using a generative approach to jointly address the tasks of emotion detection and emotional reasoning for texts. We evaluate our approach on two popular emotion detection datasets and also release the fine-grained emotion labels and explanations for further training and fine-tuning of emotional reasoning systems.

arxiv情報

著者 Ankita Bhaumik,Tomek Strzalkowski
発行日 2024-08-09 07:20:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク