Harnessing the Power of Large Language Models for Empathetic Response Generation: Empirical Investigations and Improvements

要約

共感的な対話は調和のとれた社会関係を構築するために不可欠な部分であり、役立つ AI の開発に貢献します。
これまでのアプローチは主に、微細な小規模言語モデルに基づいていました。
ChatGPT の出現により、この分野における大規模言語モデル (LLM) の適用効果が大きな注目を集めています。
この研究では、共感的な応答を生成する際の LLM のパフォーマンスを実証的に調査し、意味的に類似したコンテキスト内学習、2 段階の対話型生成、および知識ベースとの組み合わせという 3 つの改善方法を提案しています。
広範な実験により、LLM は私たちが提案する方法から大きな恩恵を受けることができ、自動評価と人間による評価の両方で最先端のパフォーマンスを達成できることが示されています。
さらに、GPT-4 が人間の評価者をシミュレートする可能性も調査します。

要約(オリジナル)

Empathetic dialogue is an indispensable part of building harmonious social relationships and contributes to the development of a helpful AI. Previous approaches are mainly based on fine small-scale language models. With the advent of ChatGPT, the application effect of large language models (LLMs) in this field has attracted great attention. This work empirically investigates the performance of LLMs in generating empathetic responses and proposes three improvement methods of semantically similar in-context learning, two-stage interactive generation, and combination with the knowledge base. Extensive experiments show that LLMs can significantly benefit from our proposed methods and is able to achieve state-of-the-art performance in both automatic and human evaluations. Additionally, we explore the possibility of GPT-4 simulating human evaluators.

arxiv情報

著者 Yushan Qian,Wei-Nan Zhang,Ting Liu
発行日 2024-07-26 15:07:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク