要約
ChatGPT などの大規模言語モデル (LLM) は、そのオープンドメイン生成機能により、最近さまざまな NLP タスクに適用されています。
ただし、LLM を対話タスクに適用する場合には 2 つの問題があります。
1. 対話プロセス中に、ユーザーは LLM によって見落とされる可能性のある暗黙の意図を持っている可能性があります。
その結果、生成された応答はユーザーの意図と一致しませんでした。
2. LLM がすべての分野を包括的に網羅することは考えにくいです。
特定の特定のドメインでは、知識が不完全である可能性があり、LLM は最新の知識をリアルタイムで更新できません。
これらの問題に取り組むために、私たちはフレームワークを提案します~\emph{LLM を使用して \textbf{D} ユーザーの \textbf{I} 暗黙的な \textbf{T} オプションを検出することで、\textbf{E}nhance ダイアログ応答の生成を強化します}
(\textbf{編集})。
まず、EDIT は、潜在的なユーザーの意図として対話のコンテキストに関連する未解決の質問を生成します。
次に、EDIT は、LLM と対話し、ドメイン固有の知識ベースをそれぞれ検索することでこれらの質問に答え、LLM を使用して追加の知識として質問に対する適切な回答を選択します。
最後に、EDIT は、これらの追加の知識を明示的に統合することにより、応答生成を強化します。
さらに、以前の質問生成の作業は、文脈に沿った回答を伴う質問をすることだけに焦点を当てていました。
自由な質問をするために、Context-Open-Question (COQ) データセットを構築します。
2 つのタスク指向の対話タスク (ウィザード オブ ウィキペディアと Holl-E) では、EDIT が他の LLM を上回りました。
要約(オリジナル)
Large Language Models (LLMs), such as ChatGPT, have recently been applied to various NLP tasks due to its open-domain generation capabilities. However, there are two issues with applying LLMs to dialogue tasks. 1. During the dialogue process, users may have implicit intentions that might be overlooked by LLMs. Consequently, generated responses couldn’t align with the user’s intentions. 2. It is unlikely for LLMs to encompass all fields comprehensively. In certain specific domains, their knowledge may be incomplete, and LLMs cannot update the latest knowledge in real-time. To tackle these issues, we propose a framework~\emph{using LLM to \textbf{E}nhance dialogue response generation by asking questions to \textbf{D}etect user’s \textbf{I}mplicit in\textbf{T}entions} (\textbf{EDIT}). Firstly, EDIT generates open questions related to the dialogue context as the potential user’s intention; Then, EDIT answers those questions by interacting with LLMs and searching in domain-specific knowledge bases respectively, and use LLMs to choose the proper answers to questions as extra knowledge; Finally, EDIT enhances response generation by explicitly integrating those extra knowledge. Besides, previous question generation works only focus on asking questions with answers in context. In order to ask open questions, we construct a Context-Open-Question (COQ) dataset. On two task-oriented dialogue tasks (Wizard of Wikipedia and Holl-E), EDIT outperformed other LLMs.
arxiv情報
著者 | Siwei Wu,Xiangqing Shen,Rui Xia |
発行日 | 2023-10-05 03:45:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google