Sibyl: Empowering Empathetic Dialogue Generation in Large Language Models via Sensible and Visionary Commonsense Inference

要約

近年、大規模言語モデル(Large Language Models:LLM)をベースとしたチャットボットを構築し、複数ターンの会話において人間のような資質をエミュレートすることへの関心が高まっている。対話コンテキストの心理的側面や因果関係をよりよく理解するための常識的知識へのアクセスがあるにもかかわらず、これらの強力なLLMでさえ、共感や感情的サポートという目標を達成するのに苦労している。対話の文脈から得られる現在の常識的知識は本質的に限定的であり、しばしば対話の将来の経過を適切に予測することができない。このような先見性の欠如は、LLMを惑わし、効果的なサポートを提供する妨げとなる。この課題に対応するため、私たちは「賢明で先見性のあるコモンセンス知識(Sibyl)」と名付けた革新的なフレームワークを提示する。直後の対話に集中するように設計されたこのパラダイムは、LLMに会話の暗黙の要求を明らかにする能力を与え、より共感的な応答を引き出すことを目指す。実験結果は、私たちのコモンセンス知識獲得パラダイムをLLMに組み込むことで、LLMの応答の質が包括的に向上することを示している。

要約(オリジナル)

Recently, there has been a heightened interest in building chatbots based on Large Language Models (LLMs) to emulate human-like qualities in multi-turn conversations. Despite having access to commonsense knowledge to better understand the psychological aspects and causality of dialogue context, even these powerful LLMs struggle to achieve the goals of empathy and emotional support. Current commonsense knowledge derived from dialogue contexts is inherently limited and often fails to adequately anticipate the future course of a dialogue. This lack of foresight can mislead LLMs and hinder their ability to provide effective support. In response to this challenge, we present an innovative framework named Sensible and Visionary Commonsense Knowledge (Sibyl). Designed to concentrate on the immediately succeeding dialogue, this paradigm equips LLMs with the capability to uncover the implicit requirements of the conversation, aiming to elicit more empathetic responses. Experimental results demonstrate that incorporating our paradigm for acquiring commonsense knowledge into LLMs comprehensively enhances the quality of their responses.

arxiv情報

著者 Lanrui Wang,Jiangnan Li,Chenxu Yang,Zheng Lin,Hongyin Tang,Huan Liu,Yanan Cao,Jingang Wang,Weiping Wang
発行日 2024-12-03 07:57:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク