DocPrompt: Large-scale continue pretrain for zero-shot and few-shot document question answering

要約

このペーパーでは、強力なゼロショットおよび少数ショットのパフォーマンスを備えた文書質問応答タスク用の Docprompt を提案します。
我々は、新しい弱教師ありデータ生成法、新しい多段階学習法、新しい理解モデルと生成モデルのアンサンブル法を提案した。
実験結果は、事前トレーニングを継続した後の Docprompt モデルが、文書質問応答タスクにおいて既存の強力なベースライン モデルよりも大幅に優れていることを示しています。
この方法により、文書質問応答顧客プロジェクトの配信効率とモデルのパフォーマンスが大幅に向上し、注釈コストと人件費が削減されます。
私たちのデモは https://huggingface.co/spaces/PaddlePaddle/ERNIE-Layout でご覧いただけます。

要約(オリジナル)

In this paper, we propose Docprompt for document question answering tasks with powerful zero-shot and few-shot performance. We proposed a novel weakly supervised data generation method, a novel multl-stage training method and a novel understanding model & generation model ensemble method. Experiment results show that the Docprompt model after continue pretrain significantly outperforms the existing strong baseline models on document question answering tasks. This method greatly improves the delivery efficiency and model performance of document question answering customer projects, reducing annotation costs and labor costs. Our demo can be found at https://huggingface.co/spaces/PaddlePaddle/ERNIE-Layout.

arxiv情報

著者 Sijin Wu,Dan Zhang,Teng Hu,Shikun Feng
発行日 2023-08-21 18:14:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク