LAPDoc: Layout-Aware Prompting for Documents

要約

大量のテキストのみのデータを使用した大規模言語モデル (LLM) のトレーニングにおける最近の進歩により、ドキュメント固有のタスクを含む、多くのドメインやタスクにわたる強力な一般化が実現しました。
これとは対照的に、文書の理解に合わせて調整されたマルチモーダル変換アーキテクチャをトレーニングする傾向があり、特にテキスト入力を対応する文書レイアウトと融合するように設計されています。
これには、追加のトレーニング データが必要な別の微調整ステップが含まれます。
現在のところ、LLM に匹敵する一般化を備えたドキュメント トランスフォーマーは利用できません。そのため、ドキュメント理解タスクにどのタイプのモデルを優先するかという疑問が生じます。
このペーパーでは、レイアウト強化を使用して、ドキュメント固有のタスクに純粋にテキストベースの LLM を使用する可能性を調査します。
純粋にテキストの LLM プロンプトをレイアウト情報で強化するためのドロップイン変更とルールベースの方法を検討します。
私たちの実験では、商用 ChatGPT モデルとオープンソース LLM Solar への影響を調査します。
私たちのアプローチを使用すると、両方の LLM がさまざまな標準ドキュメント ベンチマークでパフォーマンスの向上を示すことを示します。
さらに、ノイズの多い OCR とレイアウト エラーの影響と、ドキュメント レイアウトを利用する際の LLM の制限についても研究します。
私たちの結果は、レイアウトの強化により、文書理解のための純粋なテキストベースの LLM のパフォーマンスが、単純な文書テキストを使用する場合と比較して最大 15% 向上する可能性があることを示しています。
結論として、テキストベースの LLM とマルチモーダル ドキュメント トランスフォーマーの間で最適なモデルを選択するには、このアプローチを考慮する必要があります。

要約(オリジナル)

Recent advances in training large language models (LLMs) using massive amounts of solely textual data lead to strong generalization across many domains and tasks, including document-specific tasks. Opposed to that there is a trend to train multi-modal transformer architectures tailored for document understanding that are designed specifically to fuse textual inputs with the corresponding document layout. This involves a separate fine-tuning step for which additional training data is required. At present, no document transformers with comparable generalization to LLMs are available That raises the question which type of model is to be preferred for document understanding tasks. In this paper we investigate the possibility to use purely text-based LLMs for document-specific tasks by using layout enrichment. We explore drop-in modifications and rule-based methods to enrich purely textual LLM prompts with layout information. In our experiments we investigate the effects on the commercial ChatGPT model and the open-source LLM Solar. We demonstrate that using our approach both LLMs show improved performance on various standard document benchmarks. In addition, we study the impact of noisy OCR and layout errors, as well as the limitations of LLMs when it comes to utilizing document layout. Our results indicate that layout enrichment can improve the performance of purely text-based LLMs for document understanding by up to 15% compared to just using plain document text. In conclusion, this approach should be considered for the best model choice between text-based LLM or multi-modal document transformers.

arxiv情報

著者 Marcel Lamott,Yves-Noel Weweler,Adrian Ulges,Faisal Shafait,Dirk Krechel,Darko Obradovic
発行日 2024-02-15 10:00:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CV, cs.LG パーマリンク