要約
OCR テキスト ボックスに適用される空間グラフ畳み込みネットワーク (GCN) による文書画像の段落認識のための新しいアプローチを提案します。
行分割と行クラスタリングという 2 つの手順を実行して、OCR 結果の行から段落を抽出します。
各ステップは、バウンディング ボックスから構築されたベータ スケルトン グラフを使用します。グラフのエッジは、グラフの畳み込み操作を効率的にサポートします。
純粋なレイアウト入力機能のみを使用すると、GCN モデルのサイズは R-CNN ベースのモデルと比較して 3 ~ 4 桁小さくなり、PubLayNet やその他のデータセットで同等またはそれ以上の精度を達成します。
さらに、GCN モデルは、合成トレーニング データから実世界の画像への優れた一般化と、さまざまなドキュメント スタイルへの優れた適応性を示しています。
要約(オリジナル)
We propose a new approach for paragraph recognition in document images by spatial graph convolutional networks (GCN) applied on OCR text boxes. Two steps, namely line splitting and line clustering, are performed to extract paragraphs from the lines in OCR results. Each step uses a beta-skeleton graph constructed from bounding boxes, where the graph edges provide efficient support for graph convolution operations. With only pure layout input features, the GCN model size is 3~4 orders of magnitude smaller compared to R-CNN based models, while achieving comparable or better accuracies on PubLayNet and other datasets. Furthermore, the GCN models show good generalization from synthetic training data to real-world images, and good adaptivity for variable document styles.
arxiv情報
著者 | Renshen Wang,Yasuhisa Fujii,Ashok C. Popat |
発行日 | 2022-11-15 18:56:11+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google