Unlocking the Potential of User Feedback: Leveraging Large Language Model as User Simulator to Enhance Dialogue System

要約

対話システムと大規模言語モデル (LLM) はかなりの注目を集めています。
ただし、LLM をタスク指向対話 (TOD) モデルとして直接利用すると、より小規模なタスク固有のモデルに比べてパフォーマンスが劣ることがわかっています。
それにもかかわらず、LLM の大きな可能性を認識し、その優れた能力を活用するための改善されたアプローチを模索することが重要です。
LLM を活用するという目標に動機付けられ、私たちは、ユーザーガイド付き応答最適化 (UGRO) と呼ばれる代替アプローチを提案し、それをより小さな TOD モデルと組み合わせます。
このアプローチでは、LLM をアノテーション不要のユーザー シミュレーターとして使用して対話応答を評価し、より小規模で微調整されたエンドツーエンド TOD モデルと組み合わせます。
LLM によって生成された満足度フィードバックを利用することで、UGRO は、監視された微調整された TOD モデルをさらに最適化します。
具体的には、TOD モデルは対話履歴を入力として受け取り、ユーザー シミュレーターのフィードバックの支援を受けて、ユーザーの要件を満たす満足度の高い応答を生成します。
2 つの TOD ベンチマークでの実証実験を通じて、手法の有効性を検証します。
この結果は、私たちのアプローチが以前の最先端 (SOTA) の結果よりも優れていることを示しています。

要約(オリジナル)

Dialogue systems and large language models (LLMs) have gained considerable attention. However, the direct utilization of LLMs as task-oriented dialogue (TOD) models has been found to underperform compared to smaller task-specific models. Nonetheless, it is crucial to acknowledge the significant potential of LLMs and explore improved approaches for leveraging their impressive abilities. Motivated by the goal of leveraging LLMs, we propose an alternative approach called User-Guided Response Optimization (UGRO) to combine it with a smaller TOD model. This approach uses LLM as annotation-free user simulator to assess dialogue responses, combining them with smaller fine-tuned end-to-end TOD models. By utilizing the satisfaction feedback generated by LLMs, UGRO further optimizes the supervised fine-tuned TOD model. Specifically, the TOD model takes the dialogue history as input and, with the assistance of the user simulator’s feedback, generates high-satisfaction responses that meet the user’s requirements. Through empirical experiments on two TOD benchmarks, we validate the effectiveness of our method. The results demonstrate that our approach outperforms previous state-of-the-art (SOTA) results.

arxiv情報

著者 Zhiyuan Hu,Yue Feng,Anh Tuan Luu,Bryan Hooi,Aldo Lipani
発行日 2023-10-19 16:51:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク