1-PAGER: One Pass Answer Generation and Evidence Retrieval

要約

私たちは、単一の Transformer ベースのモデルとデコード プロセスを使用して質問に答え、証拠を取得する最初のシステムを 1-Pager に紹介します。
1-Pager は、制約付きデコードを使用して検索コーパスを段階的に分割し、文書と回答文字列を選択します。これは、検索精度と回答精度の両方の指標に基づいて、同等の検索と読み取りの代替手段と競合することを示しています。
また、1-Pager は、証拠コーパスに基づく予測により、同等のクローズドブック質問応答モデルよりも優れています。
1-Pager は、回答を生成する前にさらに多くの文書を読み取る高価なシステムとまだ同等ではありませんが、現在主流となっているシーケンスからシーケンスのパラダイムに検索を組み込むことで、属性付き生成に向けた重要な一歩を提供すると主張します。
NLPでは。
また、コーパスの分割に使用される検索パスが読みやすく理解しやすく、解釈可能なニューラル検索への道を開くことも示します。

要約(オリジナル)

We present 1-Pager the first system that answers a question and retrieves evidence using a single Transformer-based model and decoding process. 1-Pager incrementally partitions the retrieval corpus using constrained decoding to select a document and answer string, and we show that this is competitive with comparable retrieve-and-read alternatives according to both retrieval and answer accuracy metrics. 1-Pager also outperforms the equivalent closed-book question answering model, by grounding predictions in an evidence corpus. While 1-Pager is not yet on-par with more expensive systems that read many more documents before generating an answer, we argue that it provides an important step toward attributed generation by folding retrieval into the sequence-to-sequence paradigm that is currently dominant in NLP. We also show that the search paths used to partition the corpus are easy to read and understand, paving a way forward for interpretable neural retrieval.

arxiv情報

著者 Palak Jain,Livio Baldini Soares,Tom Kwiatkowski
発行日 2023-10-25 11:51:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク