SEMv2: Table Separation Line Detection Based on Instance Segmentation

要約

表の構造認識は、機械が表を理解できるようにするために不可欠な要素です。
その主な目的は、テーブルの内部構造を識別することです。
それにもかかわらず、その構造とスタイルの複雑さと多様性により、表形式のデータを機械が理解できる構造化フォーマットに解析することは非常に困難です。
この研究では、分割およびマージ ベースの方法の原理に準拠し、SEMv2 (SEM: Split、Embed and Merge) と呼ばれる正確なテーブル構造認識装置を提案します。
これまでの「分割」段階の研究とは異なり、テーブル分割線のインスタンスレベルの識別問題に対処し、条件付き畳み込みに基づくテーブル分割線検出戦略を導入することを目的としています。
具体的には、最初にテーブル区切り線インスタンスを検出し、次に各インスタンスのテーブル区切り線マスクを動的に予測するトップダウン方式で「分割」を設計します。
テーブル分割線マスクを行方向/列方向に処理することにより、最終的なテーブル分割線形状を正確に得ることができる。
SEMv2 を包括的に評価するために、iFLYTAB と呼ばれる、テーブル構造認識のためのより困難なデータセットも提示します。これには、写真、スキャンされた文書などのさまざまなシナリオでの複数のスタイル テーブルが含まれます。公的に利用可能なデータセット (例: SciTSR、PubTabNet、
iFLYTAB) は、私たちが提案したアプローチの有効性を実証します。
コードと iFLYTAB データセットは https://github.com/ZZR8066/SEMv2 で入手できます。

要約(オリジナル)

Table structure recognition is an indispensable element for enabling machines to comprehend tables. Its primary purpose is to identify the internal structure of a table. Nevertheless, due to the complexity and diversity of their structure and style, it is highly challenging to parse the tabular data into a structured format that machines can comprehend. In this work, we adhere to the principle of the split-and-merge based methods and propose an accurate table structure recognizer, termed SEMv2 (SEM: Split, Embed and Merge). Unlike the previous works in the “split” stage, we aim to address the table separation line instance-level discrimination problem and introduce a table separation line detection strategy based on conditional convolution. Specifically, we design the “split” in a top-down manner that detects the table separation line instance first and then dynamically predicts the table separation line mask for each instance. The final table separation line shape can be accurately obtained by processing the table separation line mask in a row-wise/column-wise manner. To comprehensively evaluate the SEMv2, we also present a more challenging dataset for table structure recognition, dubbed iFLYTAB, which encompasses multiple style tables in various scenarios such as photos, scanned documents, etc. Extensive experiments on publicly available datasets (e.g. SciTSR, PubTabNet and iFLYTAB) demonstrate the efficacy of our proposed approach. The code and iFLYTAB dataset are available at https://github.com/ZZR8066/SEMv2.

arxiv情報

著者 Zhenrong Zhang,Pengfei Hu,Jiefeng Ma,Jun Du,Jianshu Zhang,Huihui Zhu,Baocai Yin,Bing Yin,Cong Liu
発行日 2024-01-12 07:00:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク