要約
大規模言語モデル (LLM) は、対話中に共感的なサポートを提供する上で有望な可能性を実証しています。
しかし、彼らの反応は冗長になったり過度に定型的になったりすることが多く、現実世界のシナリオにおける多様な感情的サポートのニーズに適切に対処できません。
この課題に取り組むために、私たちは、本物の感情サポートの会話をシミュレートするように設計された、戦略を強化した革新的なロールプレイング フレームワークを提案します。
具体的には、私たちのアプローチは 2 つのステップで展開されます。 (1) 戦略強化型ロールプレイング インタラクション。シーカー、戦略カウンセラー、サポーターの 3 つの重要な役割が関与し、現実世界のインタラクションをエミュレートし、より広範なインタラクションを促進するための多様なシナリオに関与します。
対話の範囲。
(2) 特別に構築されたデータセットを使用して LLM を微調整することで達成される感情サポート エージェント トレーニング。
このフレームワーク内で、3.7,000 以上のマルチターン対話と 62,8,000 以上の発話の広範なコレクションで構成される \textbf{ServeForEmo} データセットを開発します。
さらに、さまざまなオープンドメインのシナリオを処理できる感情サポート エージェントである \textbf{SweetieChat} を紹介します。
広範な実験と人間による評価により、このフレームワークが感情的サポートを強化する効果があることが確認され、より微妙でカスタマイズされた支援を提供するその独自の能力が強調されています。
要約(オリジナル)
Large Language Models (LLMs) have demonstrated promising potential in providing empathetic support during interactions. However, their responses often become verbose or overly formulaic, failing to adequately address the diverse emotional support needs of real-world scenarios. To tackle this challenge, we propose an innovative strategy-enhanced role-playing framework, designed to simulate authentic emotional support conversations. Specifically, our approach unfolds in two steps: (1) Strategy-Enhanced Role-Playing Interactions, which involve three pivotal roles — Seeker, Strategy Counselor, and Supporter — engaging in diverse scenarios to emulate real-world interactions and promote a broader range of dialogues; and (2) Emotional Support Agent Training, achieved through fine-tuning LLMs using our specially constructed dataset. Within this framework, we develop the \textbf{ServeForEmo} dataset, comprising an extensive collection of 3.7K+ multi-turn dialogues and 62.8K+ utterances. We further present \textbf{SweetieChat}, an emotional support agent capable of handling diverse open-domain scenarios. Extensive experiments and human evaluations confirm the framework’s effectiveness in enhancing emotional support, highlighting its unique ability to provide more nuanced and tailored assistance.
arxiv情報
| 著者 | Jing Ye,Lu Xiang,Yaping Zhang,Chengqing Zong |
| 発行日 | 2024-12-11 13:56:04+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google