Peek Across: Improving Multi-Document Modeling via Cross-Document Question-Answering

要約

マルチドキュメントの事前トレーニング目標を言語モデルに統合することで、マルチドキュメントの下流タスクが大幅に改善されました。
この研究では、新しいクロスドキュメント質問応答事前トレーニング目標から一般的なマルチドキュメント モデルを事前トレーニングすることによって、このアイデアを拡張することを提案します。
そのために、トピックに関連するドキュメントのセット (またはクラスター) が与えられた場合、1 つのドキュメント内の顕著な文から意味論的指向の質問を体系的に生成し、事前トレーニング中に、モデルを「覗き見」しながらこれらの質問に答えるように挑戦します。
その他の話題に関連した文書。
同様の方法で、モデルは、ドキュメント間の情報を利用しながら、質問の生成元となった文を復元することも試行されます。
この新しいマルチドキュメント QA 定式化は、クロステキストの情報関係をより適切に回復するようにモデルを指示し、事前トレーニング データを人為的に増加させる自然な拡張を導入します。
さらに、分類タスクまたは要約タスクのいずれかに焦点を当てた従来のマルチドキュメント モデルとは異なり、トレーニング前の目標定式化により、モデルは短いテキストの生成 (例: QA) と長いテキストの生成 (例: 要約) の両方を含むタスクを実行できます。
このスキームに従って、QAmden と呼ばれるモデルを事前トレーニングし、複数ドキュメントの QA、要約、クエリ中心の要約などの複数のドキュメント タスクにわたってそのパフォーマンスを評価し、最大 7% の改善をもたらしました。
ゼロショット GPT-3.5 および GPT-4 を大幅に上回ります。

要約(オリジナル)

The integration of multi-document pre-training objectives into language models has resulted in remarkable improvements in multi-document downstream tasks. In this work, we propose extending this idea by pre-training a generic multi-document model from a novel cross-document question answering pre-training objective. To that end, given a set (or cluster) of topically-related documents, we systematically generate semantically-oriented questions from a salient sentence in one document and challenge the model, during pre-training, to answer these questions while ‘peeking’ into other topically-related documents. In a similar manner, the model is also challenged to recover the sentence from which the question was generated, again while leveraging cross-document information. This novel multi-document QA formulation directs the model to better recover cross-text informational relations, and introduces a natural augmentation that artificially increases the pre-training data. Further, unlike prior multi-document models that focus on either classification or summarization tasks, our pre-training objective formulation enables the model to perform tasks that involve both short text generation (e.g., QA) and long text generation (e.g., summarization). Following this scheme, we pre-train our model — termed QAmden — and evaluate its performance across several multi-document tasks, including multi-document QA, summarization, and query-focused summarization, yielding improvements of up to 7%, and significantly outperforms zero-shot GPT-3.5 and GPT-4.

arxiv情報

著者 Avi Caciularu,Matthew E. Peters,Jacob Goldberger,Ido Dagan,Arman Cohan
発行日 2023-05-24 17:48:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク