nicolay-r at SemEval-2024 Task 3: Using Flan-T5 for Reasoning Emotion Cause in Conversations with Chain-of-Thought on Emotion States

要約

感情表現は会話の本質的な特徴のひとつである。それは自分自身に関係することもあれば、他の話し手によって引き起こされることもある。会話履歴、話者の感情状態など、様々な理由が更なる感情原因のソースとなり得る。この研究では、Chain-of-Thoughtの最新の進歩に触発され、既存の3ホップ推論アプローチ(THOR)を利用して、感情状態(THOR-state)、および一方の話し手が他方の話し手に引き起こした感情(THOR-cause)に答えるための大規模言語モデルの命令チューニングを行う。THOR-causeには推論修正(rr)を搭載し、推論パスのファインチューニングを行う。特に、推論経路を修正するために、アノテーションされた話者の感情状態に依存する。Flan-T5-base(250M)とルールベースのスパン補正技術に基づき、THOR-stateで事前チューニングを行い、競技会のトレーニングデータでTHOR-cause-rrでファインチューニングを行った我々の最終提出結果は、参加15チーム中、3位と4位(F1-proportional)、5位(F1-strict)でした。私たちのTHOR実装フォークは公開されています: https://github.com/nicolay-r/THOR-ECAC

要約(オリジナル)

Emotion expression is one of the essential traits of conversations. It may be self-related or caused by another speaker. The variety of reasons may serve as a source of the further emotion causes: conversation history, speaker’s emotional state, etc. Inspired by the most recent advances in Chain-of-Thought, in this work, we exploit the existing three-hop reasoning approach (THOR) to perform large language model instruction-tuning for answering: emotion states (THOR-state), and emotion caused by one speaker to the other (THOR-cause). We equip THOR-cause with the reasoning revision (rr) for devising a reasoning path in fine-tuning. In particular, we rely on the annotated speaker emotion states to revise reasoning path. Our final submission, based on Flan-T5-base (250M) and the rule-based span correction technique, preliminary tuned with THOR-state and fine-tuned with THOR-cause-rr on competition training data, results in 3rd and 4th places (F1-proportional) and 5th place (F1-strict) among 15 participating teams. Our THOR implementation fork is publicly available: https://github.com/nicolay-r/THOR-ECAC

arxiv情報

著者 Nicolay Rusnachenko,Huizhi Liang
発行日 2024-04-04 11:03:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク