Emotion-o1: Adaptive Long Reasoning for Emotion Understanding in LLMs

要約

感情の理解には、基本的なタスク(感情/感情分類など)および高度なタスク(皮肉/ユーモアの検出など)が含まれます。
現在の方法は、固定長のCOT推論に依存しており、さまざまな複雑さの感情に適応できません。
DeepSeek-R1を採用して、さまざまな感情タスクのさまざまな長さの推論チェーンを生成するタスクに適した推論フレームワークを提案します。
微調整と強化学習を組み合わせることにより、予測精度、適応的推論深度制御、推論パスの構造的多様性、および反復論理の抑制という4つの目的をバランスする複合報酬関数を設計します。
このアプローチは、LLMが深い推論能力を自律的に開発できるようにしながら、動的なコンテキストに敏感な推論を実現します。
実験結果は、感情、感情、ユーモア、皮肉の4つのタスクにわたるACCとF1の両方のスコアの一貫した改善を示しています。
特に、基本タスクでは3.56%F1(2.76%ACC)、高度なタスクでは37.95%F1(23.14%ACC)に達しました。
私たちの仕事は、適応的な深い分析を通じて、厳格なベッドコットの推論と感情的な複雑さを橋渡しします。

要約(オリジナル)

Emotion understanding includes basic tasks (e.g., sentiment/emotion classification) and advanced tasks (e.g., sarcasm/humor detection). Current methods rely on fixed-length CoT reasoning, failing to adapt to the varying complexity of emotions. We propose a task-adaptive reasoning framework that employs DeepSeek-R1 to generate variable-length reasoning chains for different emotion tasks. By combining fine-tuning with reinforcement learning, we design a composite reward function that balances four objectives: prediction accuracy, adaptive reasoning depth control, structural diversity in reasoning paths, and suppression of repetitive logic. This approach achieves dynamic context-sensitive inference while enabling LLMs to autonomously develop deep reasoning capabilities. Experimental results demonstrate consistent improvements in both Acc and F1 scores across four tasks: emotion, sentiment, humor, and sarcasm. Notably, peak enhancements reached 3.56% F1 (2.76% Acc) for basic tasks and 37.95% F1 (23.14% Acc) for advanced tasks. Our work bridges rigid CoT reasoning and emotional complexity through adaptive-depth analysis.

arxiv情報

著者 Changhao Song,Yazhou Zhang,Peng Zhang
発行日 2025-05-28 16:32:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク