Dynamically Retrieving Knowledge via Query Generation for Informative Dialogue Generation

要約

知識主導の対話システムは、最近目覚ましい進歩を遂げました。
一般的な対話システムと比較して、優れた知識駆動型対話システムは、事前に提供された知識を使用して、より有益で知識豊富な応答を生成できます。
しかし、実際のアプリケーションでは、会話の展開を事前に知ることができないため、対話システムに対応する知識を事前に提供することはできません。
したがって、知識対話システムをより実用的なものにするためには、対話履歴に基づいて関連する知識を検索する方法を見つけることが重要です。
この問題を解決するために、DRKQG (有益なダイアログ応答のためのクエリ生成による知識の動的取得) という名前の知識駆動型ダイアログ システムを設計します。
具体的には、システムはクエリ生成モジュールとダイアログ生成モジュールの 2 つのモジュールに分けることができます。
まず、時間認識メカニズムを使用してコンテキスト情報を取得し、検索エンジンを介して知識を取得するためのクエリを生成できます。
次に、コピー メカニズムとトランスフォーマーを統合します。これにより、応答生成モジュールがコンテキストから派生した応答を生成し、知識を取得できるようになります。
LIC2022 (Language and Intelligence Technology Competition) での実験結果は、自動評価メトリックでベースライン モデルよりも大幅に優れていることを示しています。一方、Baidu 言語学チームによる人間の評価では、当社のシステムが Factually Correct and Knowledgeable で印象的な結果を達成していることを示しています。

要約(オリジナル)

Knowledge-driven dialog system has recently made remarkable breakthroughs. Compared with general dialog systems, superior knowledge-driven dialog systems can generate more informative and knowledgeable responses with pre-provided knowledge. However, in practical applications, the dialog system cannot be provided with corresponding knowledge in advance because it cannot know in advance the development of the conversation. Therefore, in order to make the knowledge dialogue system more practical, it is vital to find a way to retrieve relevant knowledge based on the dialogue history. To solve this problem, we design a knowledge-driven dialog system named DRKQG (Dynamically Retrieving Knowledge via Query Generation for informative dialog response). Specifically, the system can be divided into two modules: the query generation module and the dialog generation module. First, a time-aware mechanism is utilized to capture context information, and a query can be generated for retrieving knowledge through search engine. Then, we integrate the copy mechanism and transformers, which allows the response generation module to produce responses derived from the context and retrieved knowledge. Experimental results at LIC2022, Language and Intelligence Technology Competition, show that our module outperforms the baseline model by a large margin on automatic evaluation metrics, while human evaluation by the Baidu Linguistics team shows that our system achieves impressive results in Factually Correct and Knowledgeable.

arxiv情報

著者 Zhongtian Hu,Lifang Wang,Yangqi Chen,Yushuang Liu,Ronghan Li,Meng Zhao,Xinyu Lu,Zejun Jiang
発行日 2023-02-23 05:33:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク