要約
タイトル:Answer-unaware 会話型質問生成のためのWhat-to-askおよびHow-to-askのモデリング
要約:
– 会話型質問生成(CQG)は、機械が会話を通じて人の情報ニーズを満たすのに役立つ重要なタスクです。
– このタスクは、通常2つの異なる設定に分類されます:Answer-aware設定とAnswer-unaware設定。
– Answer-aware設定では、期待される答えを提示することによってモデルを補助し、Answer-unaware設定はより現実的であり、最近注目を集めています。
– Answer-unaware設定においては、What-to-askおよびHow-to-askが2つの主要な課題です。
– 既存の方法では、What-to-askにおいては文脈の連続した文を選択することが主な手法であったが、これによって生成される会話は現実的ではない可能性がある。
– How-to-askにおいては、既存の方法では生成される質問のタイプ(ブール型/スパン型)を暗黙的に決定していたが、この問題はモデルが生成する質問の種類を正確に決定する必要がある。
– SG-CQGという2段階のCQGフレームワークを提案し、What-to-askのステージはセマンティックグラフから文を選択し、その中から回答スパンを抽出し、How-to-askのステージでは、分類器が2つの明示的な制御信号を介して質問の目的の答えタイプを決定する。
– 新しい評価指標であるConv-Distinctを提案し、SG-CQGは既存のAnswer-unaware CQGモデルよりも優れた性能を発揮します。
要約(オリジナル)
Conversational Question Generation (CQG) is a critical task for machines to assist humans in fulfilling their information needs through conversations. The task is generally cast into two different settings: answer-aware and answer-unaware. While the former facilitates the models by exposing the expected answer, the latter is more realistic and receiving growing attentions recently. What-to-ask and how-to-ask are the two main challenges in the answer-unaware setting. To address the first challenge, existing methods mainly select sequential sentences in context as the rationales. We argue that the conversation generated using such naive heuristics may not be natural enough as in reality, the interlocutors often talk about the relevant contents that are not necessarily sequential in context. Additionally, previous methods decide the type of question to be generated (boolean/span-based) implicitly. Modeling the question type explicitly is crucial as the answer, which hints the models to generate a boolean or span-based question, is unavailable. To this end, we present SG-CQG, a two-stage CQG framework. For the what-to-ask stage, a sentence is selected as the rationale from a semantic graph that we construct, and extract the answer span from it. For the how-to-ask stage, a classifier determines the target answer type of the question via two explicit control signals before generating and filtering. In addition, we propose Conv-Distinct, a novel evaluation metric for CQG, to evaluate the diversity of the generated conversation from a context. Compared with the existing answer-unaware CQG models, the proposed SG-CQG achieves state-of-the-art performance.
arxiv情報
著者 | Xuan Long Do,Bowei Zou,Shafiq Joty,Anh Tai Tran,Liangming Pan,Nancy F. Chen,Ai Ti Aw |
発行日 | 2023-05-04 18:06:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI