Improving Question Generation with Multi-level Content Planning

要約

このペーパーでは、特定のコンテキストと回答から質問を生成する問題について、特に拡張されたコンテキストにわたるマルチホップ推論を必要とする質問に焦点を当てます。
これまでの研究では、質問生成 (QG) にはキー フレーズの選択が不可欠であることが示唆されていますが、特に長い文脈の場合、そのようなバラバラなフレーズを意味のある質問に結び付けることは依然として困難です。
この問題を軽減するために、マルチレベル コンテンツ プランニングに基づく新しい QG フレームワークである MultiFactor を提案します。
具体的には、MultiFactor には 2 つのコンポーネントが含まれています。キー フレーズの選択と完全な回答を同時に生成する FA モデルと、生成された完全な回答を追加入力として使用して質問を生成する Q モデルです。
ここでは、完全な回答生成が導入され、短い回答と選択されたキー フレーズが関連付けられ、QG を促進するために回答を意識した要約が形成されます。
FA モデルと Q モデルは両方とも、シンプルでありながら効果的なフレーズ拡張トランスフォーマーとして形式化されており、フレーズ選択とテキスト生成のための共同モデルです。
実験結果は、私たちの方法が 2 つの一般的な QG データセットにおける強力なベースラインを上回るパフォーマンスを示していることを示しています。
私たちのコードは https://github.com/zeaver/MultiFactor で入手できます。

要約(オリジナル)

This paper addresses the problem of generating questions from a given context and an answer, specifically focusing on questions that require multi-hop reasoning across an extended context. Previous studies have suggested that key phrase selection is essential for question generation (QG), yet it is still challenging to connect such disjointed phrases into meaningful questions, particularly for long context. To mitigate this issue, we propose MultiFactor, a novel QG framework based on multi-level content planning. Specifically, MultiFactor includes two components: FA-model, which simultaneously selects key phrases and generates full answers, and Q-model which takes the generated full answer as an additional input to generate questions. Here, full answer generation is introduced to connect the short answer with the selected key phrases, thus forming an answer-aware summary to facilitate QG. Both FA-model and Q-model are formalized as simple-yet-effective Phrase-Enhanced Transformers, our joint model for phrase selection and text generation. Experimental results show that our method outperforms strong baselines on two popular QG datasets. Our code is available at https://github.com/zeaver/MultiFactor.

arxiv情報

著者 Zehua Xia,Qi Gou,Bowen Yu,Haiyang Yu,Fei Huang,Yongbin Li,Cam-Tu Nguyen
発行日 2023-10-20 13:57:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク