要約
プロット、チャート、インフォグラフィックなどの視覚言語データは、人間の世界に遍在しています。
ただし、最先端の視覚言語モデルは、これらのデータではうまく機能しません。
チャート/プロットと言語データを共同でモデル化する際のビジュアル言語モデルの機能を強化するために、MatCha (Math reasoning and Chart derendering pretraining) を提案します。
具体的には、ビジュアル言語モデリングの重要な機能であるプロットの分解と数値推論をカバーするいくつかの事前トレーニング タスクを提案します。
最近提案された画像からテキストへのビジュアル言語モデルである Pix2Struct から開始して、MatCha 事前トレーニングを実行します。
PlotQA や ChartQA などの標準的なベンチマークでは、MatCha モデルは最先端の方法よりも 20% 近く優れています。
また、MatCha の事前トレーニングがスクリーンショット、教科書の図、ドキュメントの図などのドメインにどの程度うまく移行するかを調べ、全体的な改善を観察して、より広範な視覚言語タスクでの MatCha の事前トレーニングの有用性を検証します。
要約(オリジナル)
Visual language data such as plots, charts, and infographics are ubiquitous in the human world. However, state-of-the-art vision-language models do not perform well on these data. We propose MatCha (Math reasoning and Chart derendering pretraining) to enhance visual language models’ capabilities in jointly modeling charts/plots and language data. Specifically, we propose several pretraining tasks that cover plot deconstruction and numerical reasoning which are the key capabilities in visual language modeling. We perform the MatCha pretraining starting from Pix2Struct, a recently proposed image-to-text visual language model. On standard benchmarks such as PlotQA and ChartQA, the MatCha model outperforms state-of-the-art methods by as much as nearly 20%. We also examine how well MatCha pretraining transfers to domains such as screenshots, textbook diagrams, and document figures and observe overall improvement, verifying the usefulness of MatCha pretraining on broader visual language tasks.
arxiv情報
著者 | Fangyu Liu,Francesco Piccinno,Syrine Krichene,Chenxi Pang,Kenton Lee,Mandar Joshi,Yasemin Altun,Nigel Collier,Julian Martin Eisenschlos |
発行日 | 2022-12-19 17:44:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google