要約
感情、気分、感情を含む感情認識は、人間のコミュニケーションにおいて極めて重要な役割を果たします。
会話型人工知能 (AI) の領域では、人間の感情的な合図を識別して応答する能力は、魅力的で共感的な対話を生み出すための重要な要素です。
この研究では、オープンドメインのおしゃべり対話とタスク指向対話の両方に焦点を当て、会話における人間の感情を認識する大規模言語モデル (LLM) の能力を詳しく調べています。
カジュアルな会話から臨床面接までの幅広い対話をカバーする、IEMOCAP、EmoWOZ、DAIC-WOZ という 3 つの多様なデータセットを活用して、感情認識における LLM のパフォーマンスを評価および比較しました。
私たちの調査では、コンテキスト学習 (ICL) による LLM のゼロショットおよび少数ショット機能と、タスク固有の微調整によるモデル能力を調査しています。
さらに、この研究では、LLM 予測に対する自動音声認識 (ASR) エラーの潜在的な影響も考慮されています。
この研究では、LLM が会話において人間のような感情認識能力をどの程度再現できるかを明らかにすることを目指しています。
要約(オリジナル)
Affect recognition, encompassing emotions, moods, and feelings, plays a pivotal role in human communication. In the realm of conversational artificial intelligence (AI), the ability to discern and respond to human affective cues is a critical factor for creating engaging and empathetic interactions. This study delves into the capacity of large language models (LLMs) to recognise human affect in conversations, with a focus on both open-domain chit-chat dialogues and task-oriented dialogues. Leveraging three diverse datasets, namely IEMOCAP, EmoWOZ, and DAIC-WOZ, covering a spectrum of dialogues from casual conversations to clinical interviews, we evaluated and compared LLMs’ performance in affect recognition. Our investigation explores the zero-shot and few-shot capabilities of LLMs through in-context learning (ICL) as well as their model capacities through task-specific fine-tuning. Additionally, this study takes into account the potential impact of automatic speech recognition (ASR) errors on LLM predictions. With this work, we aim to shed light on the extent to which LLMs can replicate human-like affect recognition capabilities in conversations.
arxiv情報
著者 | Shutong Feng,Guangzhi Sun,Nurul Lubis,Chao Zhang,Milica Gašić |
発行日 | 2023-09-22 14:11:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google