Recognizing Emotion Regulation Strategies from Human Behavior with Large Language Models

要約

人間の感情は多くの場合直接表現されませんが、内部プロセスと社会的表現ルールに従って制御されます。
感情コンピューティング システムの場合、ユーザーが自分の感情をどのように調整するかを理解することは、たとえば、就職面接のトレーニングや心理療法のシナリオでフィードバックを提供する場合に非常に役立ちます。
ただし、現時点では、クロスユーザーシナリオでさまざまな感情制御戦略を自動的に分類する方法は存在しません。
同時に、最近の研究では、命令調整された大規模言語モデル (LLM) が、カテゴリカルな感情認識や感情分析などのさまざまな感情認識タスクにわたって優れたパフォーマンスを達成できることが示されています。
これらの結果は有望ですが、LLM の表現力がユーザーの内的感情制御戦略を分類するというより微妙なタスクにどの程度利用できるかは不明のままです。
このギャップを埋めるために、感情の恥の社会的表示をモデル化するために最近導入された \textsc{Deep} コーパスを利用します。このコーパスでは、各時点に 7 つの異なる感情制御クラスのいずれかで注釈が付けられます。
\textsc{Deep} コーパス上のさまざまな情報源から生成されたプロンプトに対して低ランク最適化を使用して、Llama2-7B と最近導入された Gemma モデルを微調整します。
これらには、言語的および非言語的行動、個人的要因、および対話後の綿密なインタビューの結果が含まれます。
私たちの結果は、微調整された Llama2-7B LLM が、インタラクション後のインタビューからのデータにアクセスすることなく、利用された感情制御戦略を高精度 (0.84) で分類できることを示しています。
これは、ベイジアン ネットワークに基づいた以前のアプローチに比べて大幅な改善を示しており、感情制御における言語行動のモデル化の重要性を強調しています。

要約(オリジナル)

Human emotions are often not expressed directly, but regulated according to internal processes and social display rules. For affective computing systems, an understanding of how users regulate their emotions can be highly useful, for example to provide feedback in job interview training, or in psychotherapeutic scenarios. However, at present no method to automatically classify different emotion regulation strategies in a cross-user scenario exists. At the same time, recent studies showed that instruction-tuned Large Language Models (LLMs) can reach impressive performance across a variety of affect recognition tasks such as categorical emotion recognition or sentiment analysis. While these results are promising, it remains unclear to what extent the representational power of LLMs can be utilized in the more subtle task of classifying users’ internal emotion regulation strategy. To close this gap, we make use of the recently introduced \textsc{Deep} corpus for modeling the social display of the emotion shame, where each point in time is annotated with one of seven different emotion regulation classes. We fine-tune Llama2-7B as well as the recently introduced Gemma model using Low-rank Optimization on prompts generated from different sources of information on the \textsc{Deep} corpus. These include verbal and nonverbal behavior, person factors, as well as the results of an in-depth interview after the interaction. Our results show, that a fine-tuned Llama2-7B LLM is able to classify the utilized emotion regulation strategy with high accuracy (0.84) without needing access to data from post-interaction interviews. This represents a significant improvement over previous approaches based on Bayesian Networks and highlights the importance of modeling verbal behavior in emotion regulation.

arxiv情報

著者 Philipp Müller,Alexander Heimerl,Sayed Muddashir Hossain,Lea Siegel,Jan Alexandersson,Patrick Gebhard,Elisabeth André,Tanja Schneeberger
発行日 2024-08-08 12:47:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク