要約
大規模言語モデル (LLM) の最近の進歩により、チャットボット開発に新たな道が提供されましたが、既存の研究のほとんどは主に、ユーザー入力後に「何を」答えるかを決定することに重点を置いたシングルユーザー チャットボットに焦点を当てていました。
この論文では、マルチユーザー チャットボットには、「何を」言うか、「いつ」応答するか、「誰が」応答するかという、より複雑な 3W 設計次元があることが判明しました。
さらに、グループ ディスカッション用に特別に設計されたチャットボット用の LLM ベースのフレームワークである Multi-User Chat Assistant (MUCA) を提案しました。
MUCA は、サブトピック ジェネレーター、ダイアログ アナライザー、発話戦略アービトレーターの 3 つの主要モジュールで構成されます。
これらのモジュールは共同して、適切な応答内容、タイミング、および適切な受信者を決定します。
MUCA の最適化プロセスを容易にするために、実際のユーザーの動作を模倣できる LLM ベースのマルチユーザー シミュレーター (MUS) をさらに提案します。
これにより、チャットボットとシミュレートされたユーザー間の会話のシミュレーションが高速化され、チャットボット フレームワークの初期開発がより効率的になります。
ケーススタディやユーザー調査の実験結果で証明されているように、MUCA は、小規模から中規模の参加者との目標指向の会話において、適切なチャイムインのタイミング、関連性の高いコンテンツ、積極的なユーザー エンゲージメントなどの有効性を実証しています。
要約(オリジナル)
Recent advancements in large language models (LLMs) have provided a new avenue for chatbot development, while most existing research has primarily centered on single-user chatbots that focus on deciding ‘What’ to answer after user inputs. In this paper, we identified that multi-user chatbots have more complex 3W design dimensions — ‘What’ to say, ‘When’ to respond, and ‘Who’ to answer. Additionally, we proposed Multi-User Chat Assistant (MUCA), which is an LLM-based framework for chatbots specifically designed for group discussions. MUCA consists of three main modules: Sub-topic Generator, Dialog Analyzer, and Utterance Strategies Arbitrator. These modules jointly determine suitable response contents, timings, and the appropriate recipients. To make the optimizing process for MUCA easier, we further propose an LLM-based Multi-User Simulator (MUS) that can mimic real user behavior. This enables faster simulation of a conversation between the chatbot and simulated users, making the early development of the chatbot framework much more efficient. MUCA demonstrates effectiveness, including appropriate chime-in timing, relevant content, and positive user engagement, in goal-oriented conversations with a small to medium number of participants, as evidenced by case studies and experimental results from user studies.
arxiv情報
著者 | Manqing Mao,Paishun Ting,Yijian Xiang,Mingyang Xu,Julia Chen,Jianzhe Lin |
発行日 | 2024-01-10 02:22:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google