Faithful Persona-based Conversational Dataset Generation with Large Language Models

要約

ユーザーとコミュニケーションできる AI モデルを開発するには、高品質の会話データセットが不可欠です。
チャットボットとそのユーザーの間のより深い対話を促進する 1 つの方法は、ペルソナ、つまりユーザーの性格、動機、行動についての洞察を提供するユーザーの性格の側面を介することです。
多様で包括的なペルソナベースのデータセットで自然言語処理 (NLP) モデルをトレーニングすると、ユーザーとのより深いつながりを生み出し、エンゲージメントを維持する会話モデルにつながる可能性があります。
このペーパーでは、大規模言語モデル (LLM) の機能を利用して、シード データセットから大規模で高品質の会話データセットを作成します。
私たちは、会話の品質を向上させながら、初期データセットを拡張するための Generator-Critic アーキテクチャ フレームワークを提案します。
ジェネレーターは、会話の出力を要求される LLM です。
Critic は、生成される会話の品質を制御する複数の専門家 LLM で構成されます。
これらの専門家は、生成された最適な会話を選択し、それをジェネレーターの改善に使用します。
ペルソナ チャットからシードされた 20,000 の会話で構成される合成ペルソナ チャットをリリースします。
私たちは、広範な実験を通じて合成ペルソナ チャットの品質と生成フレームワークをさまざまな次元で評価し、チューリング テスト中のペルソナ チャットに対する合成ペルソナ チャットの損失率が 3 回の反復で 17.2% から 8.8% に減少することを観察しました。

要約(オリジナル)

High-quality conversational datasets are essential for developing AI models that can communicate with users. One way to foster deeper interactions between a chatbot and its user is through personas, aspects of the user’s character that provide insights into their personality, motivations, and behaviors. Training Natural Language Processing (NLP) models on a diverse and comprehensive persona-based dataset can lead to conversational models that create a deeper connection with the user, and maintain their engagement. In this paper, we leverage the power of Large Language Models (LLMs) to create a large, high-quality conversational dataset from a seed dataset. We propose a Generator-Critic architecture framework to expand the initial dataset, while improving the quality of its conversations. The Generator is an LLM prompted to output conversations. The Critic consists of a mixture of expert LLMs that control the quality of the generated conversations. These experts select the best generated conversations, which we then use to improve the Generator. We release Synthetic-Persona-Chat, consisting of 20k conversations seeded from Persona-Chat. We evaluate the quality of Synthetic-Persona-Chat and our generation framework on different dimensions through extensive experiments, and observe that the losing rate of Synthetic-Persona-Chat against Persona-Chat during Turing test decreases from 17.2% to 8.8% over three iterations.

arxiv情報

著者 Pegah Jandaghi,XiangHai Sheng,Xinyi Bai,Jay Pujara,Hakim Sidahmed
発行日 2023-12-15 18:23:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク