StyleChat: Learning Recitation-Augmented Memory in LLMs for Stylized Dialogue Generation

要約

大規模言語モデル (LLM) は、生成シナリオで優れたパフォーマンスを示し、幅広い注目を集めています。
その中でも、定型化された対話生成は、LLM のコンテキストにおいて、インテリジェントで魅力的な対話エージェントを構築するために不可欠です。
ただし、LLM の機能はデータ主導型であり、データのバイアスによって制限されるため、特定のタスクのパフォーマンスが低下します。
特に、定型化されたダイアログの生成では、教師付きデータが大幅に不足しています。
さらに、特定のタスクを実行するために多くのプロンプトベースの方法が提案されていますが、多種多様なダイアログ スタイルを含む複雑な現実世界のシナリオでのパフォーマンスはさらに向上します。
本研究では、LLM の生成力を総合的に活用し、人による厳格な品質管理により慎重に構築された、38 のスタイルを備えた定型化された対話データセット StyleEval を初めて紹介します。
これに基づいて、一般化能力を促進するための暗唱強化記憶戦略とマルチタスク形式の学習戦略を介した様式化された対話フレームワーク StyleChat を提案します。
私たちのアプローチの有効性を評価するために、生成タスクと選択タスクの両方を含むテスト ベンチマークを作成し、トレーニングされたモデルを包括的に評価し、スタイルと好みが記憶され理解されているかどうかを評価しました。
実験結果は、私たちが提案したフレームワーク StyleChat がすべてのベースラインを上回り、LLM のスタイル境界を打ち破るのに役立つことを示しています。

要約(オリジナル)

Large Language Models (LLMs) demonstrate superior performance in generative scenarios and have attracted widespread attention. Among them, stylized dialogue generation is essential in the context of LLMs for building intelligent and engaging dialogue agent. However the ability of LLMs is data-driven and limited by data bias, leading to poor performance on specific tasks. In particular, stylized dialogue generation suffers from a severe lack of supervised data. Furthermore, although many prompt-based methods have been proposed to accomplish specific tasks, their performance in complex real-world scenarios involving a wide variety of dialog styles further enhancement. In this work, we first introduce a stylized dialogue dataset StyleEval with 38 styles by leveraging the generative power of LLMs comprehensively, which has been carefully constructed with rigorous human-led quality control. Based on this, we propose the stylized dialogue framework StyleChat via recitation-augmented memory strategy and multi-task style learning strategy to promote generalization ability. To evaluate the effectiveness of our approach, we created a test benchmark that included both a generation task and a choice task to comprehensively evaluate trained models and assess whether styles and preferences are remembered and understood. Experimental results show that our proposed framework StyleChat outperforms all the baselines and helps to break the style boundary of LLMs.

arxiv情報

著者 Jinpeng Li,Zekai Zhang,Quan Tu,Xin Cheng,Dongyan Zhao,Rui Yan
発行日 2024-03-18 03:26:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク