FAST: Faster Arbitrarily-Shaped Text Detector with Minimalist Kernel Representation

要約

FAST(つまり、より高速な任意形状のテキスト検出器)と呼ばれる、正確で効率的なシーンテキスト検出フレームワークを提案します。
複雑な後処理と手作りのネットワーク アーキテクチャを使用する最近の高度なテキスト検出器とは異なり、FAST には 2 つの新しい設計があります。
(1) 最小限のカーネル表現 (1 チャネル出力のみ) を設計して、任意の形状のテキストをモデル化し、GPU 並列後処理を使用して、無視できる時間オーバーヘッドでテキスト行を効率的に組み立てます。
(2) テキスト検出用に調整されたネットワーク アーキテクチャを検索し、画像分類用に検索されるほとんどのネットワークよりも強力な機能を導きます。
これら 2 つの設計の恩恵を受けて、FAST は、Total Text、CTW1500、ICDAR 2015、および MSRA-TD500 を含むいくつかの困難なデータセットで、精度と効率の間の優れたトレードオフを実現します。
たとえば、FAST-T は、Total-Text の 152 FPS で 81.6% の F 測定値をもたらし、精度と速度の点で、以前の最速の方法を 1.7 ポイント、70 FPS 上回っています。
TensorRT の最適化により、推論速度をさらに加速して 600 FPS を超えることができます。
コードとモデルは https://github.com/czczup/FAST でリリースされます。

要約(オリジナル)

We propose an accurate and efficient scene text detection framework, termed FAST (i.e., faster arbitrarily-shaped text detector). Different from recent advanced text detectors that used complicated post-processing and hand-crafted network architectures, resulting in low inference speed, FAST has two new designs. (1) We design a minimalist kernel representation (only has 1-channel output) to model text with arbitrary shape, as well as a GPU-parallel post-processing to efficiently assemble text lines with a negligible time overhead. (2) We search the network architecture tailored for text detection, leading to more powerful features than most networks that are searched for image classification. Benefiting from these two designs, FAST achieves an excellent trade-off between accuracy and efficiency on several challenging datasets, including Total Text, CTW1500, ICDAR 2015, and MSRA-TD500. For example, FAST-T yields 81.6% F-measure at 152 FPS on Total-Text, outperforming the previous fastest method by 1.7 points and 70 FPS in terms of accuracy and speed. With TensorRT optimization, the inference speed can be further accelerated to over 600 FPS. Code and models will be released at https://github.com/czczup/FAST.

arxiv情報

著者 Zhe Chen,Jiahao Wang,Wenhai Wang,Guo Chen,Enze Xie,Ping Luo,Tong Lu
発行日 2023-01-11 14:04:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク