Exploring Answer Information Methods for Question Generation with Transformers

要約

質問生成に関しては、入力としてターゲットとなる回答を提供するためのさまざまな方法が採用され、多くの研究が行われてきました。
この実験は主に RNN ベースのモデルに対して実行されました。
回答情報を組み込むために 3 つの異なる方法とその組み合わせを使用し、いくつかの自動評価指標に対するそれらの効果を調査します。
使用される方法は、回答のプロンプト、回答の埋め込みとエンコーダー出力を使用したカスタム製品メソッドの使用、回答関連情報を含む入力段落からの文の選択、および回答を処理するデコーダー内の別個のクロスアテンション アテンション ブロックの使用です。

追加モードを使用しない応答プロンプトでは、ルージュ、メテオのスコア全体で最高のスコアが得られることがわかります。
さらに、カスタム メトリックを使用して、質問の生成に使用された回答と同じ回答を持つ、生成された質問の数を計算します。

要約(オリジナル)

There has been a lot of work in question generation where different methods to provide target answers as input, have been employed. This experimentation has been mostly carried out for RNN based models. We use three different methods and their combinations for incorporating answer information and explore their effect on several automatic evaluation metrics. The methods that are used are answer prompting, using a custom product method using answer embeddings and encoder outputs, choosing sentences from the input paragraph that have answer related information, and using a separate cross-attention attention block in the decoder which attends to the answer. We observe that answer prompting without any additional modes obtains the best scores across rouge, meteor scores. Additionally, we use a custom metric to calculate how many of the generated questions have the same answer, as the answer which is used to generate them.

arxiv情報

著者 Talha Chafekar,Aafiya Hussain,Grishma Sharma,Deepak Sharma
発行日 2023-12-06 13:26:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク