要約
タスク指向対話 (TOD) システムは、情報収集を含むタスク指向の会話を効率的に処理することを目的としています。
情報収集のために ToD を正確、効率的、効果的に活用する方法は、常に重要かつ困難な課題です。
最近の研究では、大規模言語モデル (LLM) が対話、命令生成、および推論に優れており、微調整によって TOD のパフォーマンスを大幅に向上できることが実証されています。
ただし、現在のデータセットは主にユーザー主導のシステムに対応しており、事前定義された特定のシナリオとスロットに限定されているため、TOD のプロアクティブ性、多様性、機能の改善が必要です。
この研究では、会話のための詳細なマルチドメイン タスク指向データ構築プロセスと、このプロセスに基づいて生成された中国語対話データセット \textbf{TransferTOD} を紹介します。これは、30 の一般的なライフ サービス シナリオにおける人間と機械の対話を忠実にシミュレートします。
。
このデータセットを活用して、フルパラメータの微調整を使用して \textbf{TransferTOD-7B} モデルをトレーニングし、スロットの充填と質問における顕著な能力を示しました。
私たちの取り組みは、さまざまなダウンストリーム シナリオにおける強力な一般化機能を実証し、データ利用効率とシステム パフォーマンスの両方を大幅に向上させました。
データは https://github.com/KongLongGeFDU/TransferTOD で公開されています。
要約(オリジナル)
Task-oriented dialogue (TOD) systems aim to efficiently handle task-oriented conversations, including information gathering. How to utilize ToD accurately, efficiently and effectively for information gathering has always been a critical and challenging task. Recent studies have demonstrated that Large Language Models (LLMs) excel in dialogue, instruction generation, and reasoning, and can significantly enhance the performance of TOD through fine-tuning. However, current datasets primarily cater to user-led systems and are limited to predefined specific scenarios and slots, thereby necessitating improvements in the proactiveness, diversity, and capabilities of TOD. In this study, we present a detailed multi-domain task-oriented data construction process for conversations, and a Chinese dialogue dataset generated based on this process, \textbf{TransferTOD}, which authentically simulates human-machine dialogues in 30 popular life service scenarios. Leveraging this dataset, we trained a \textbf{TransferTOD-7B} model using full-parameter fine-tuning, showcasing notable abilities in slot filling and questioning. Our work has demonstrated its strong generalization capabilities in various downstream scenarios, significantly enhancing both data utilization efficiency and system performance. The data is released in https://github.com/KongLongGeFDU/TransferTOD.
arxiv情報
著者 | Ming Zhang,Caishuang Huang,Yilong Wu,Shichun Liu,Huiyuan Zheng,Yurui Dong,Yujiong Shen,Shihan Dou,Jun Zhao,Junjie Ye,Qi Zhang,Tao Gui,Xuanjing Huang |
発行日 | 2024-07-31 15:38:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google