Both Matter: Enhancing the Emotional Intelligence of Large Language Models without Compromising the General Intelligence

要約

感情知覚、感情認知、感情表現で構成される感情知能 (EI) は、現在の大規模言語モデル (LLM) ベースの会話型汎用 AI アシスタントのユーザー インタラクション エクスペリエンスを向上させる上で重要な役割を果たします。
これまでの研究は主に、EI 関連の分類または回帰タスクの単純な微調整を通じて感情知覚能力を高めることに焦点を当てていました。
しかし、これはEIの不完全な強化と一般知能(GI)の壊滅的な忘却につながります。
この目的を達成するために、まず \textsc{EiBench} を導入します。これは、EI の 3 つの側面すべてをカバーする、テキスト対テキスト形式の EI 関連タスクの大規模なコレクションであり、EI の 3 つの側面すべてをカバーするタスク指示があり、包括的な基礎を築きます。
LLM の EI 拡張。
次に、モジュール式パラメータ拡張とイントラから構成される、新しい \underline{\textbf{Mo}}二重 \underline{\textbf{E}}モーション \underline{\textbf{I}} 知能強化手法 (\textbf{MoEI}) です。
-相互変調は、GI を損なうことなく LLM の EI を包括的に強化するために提案されています。
2 つの代表的な LLM ベースのアシスタント、Flan-T5 と LLaMA-2-Chat に関する広範な実験により、GI を維持しながら EI を改善する MoEI の有効性が実証されました。

要約(オリジナル)

Emotional Intelligence (EI), consisting of emotion perception, emotion cognition and emotion expression, plays the critical roles in improving user interaction experience for the current large language model (LLM) based conversational general AI assistants. Previous works mainly focus on raising the emotion perception ability of them via naive fine-tuning on EI-related classification or regression tasks. However, this leads to the incomplete enhancement of EI and catastrophic forgetting of the general intelligence (GI). To this end, we first introduce \textsc{EiBench}, a large-scale collection of EI-related tasks in the text-to-text formation with task instructions that covers all three aspects of EI, which lays a solid foundation for the comprehensive EI enhancement of LLMs. Then a novel \underline{\textbf{Mo}}dular \underline{\textbf{E}}motional \underline{\textbf{I}}ntelligence enhancement method (\textbf{MoEI}), consisting of Modular Parameter Expansion and intra-inter modulation, is proposed to comprehensively enhance the EI of LLMs without compromise their GI. Extensive experiments on two representative LLM-based assistants, Flan-T5 and LLaMA-2-Chat, demonstrate the effectiveness of MoEI to improving EI while maintain GI.

arxiv情報

著者 Weixiang Zhao,Zhuojun Li,Shilong Wang,Yang Wang,Yulin Hu,Yanyan Zhao,Chen Wei,Bing Qin
発行日 2024-02-15 16:36:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク