Out-of-Vocabulary Challenge Report

要約

このホワイト ペーパーでは、Out-Of-Vocabulary 2022 (OOV) チャレンジの最終結果を示します。
OOV コンテストでは、光学式文字認識 (OCR) モデルでは一般的に研究されていない重要な側面、つまりトレーニング時の目に見えないシーンのテキスト インスタンスの認識が導入されます。
このコンペティションは、4,864,405 のシーン テキスト インスタンスを含む 326,385 の画像で構成されるパブリック シーン テキスト データセットのコレクションをコンパイルし、幅広いデータ分布をカバーします。
新しい独立した検証およびテスト セットは、トレーニング時にボキャブラリーに含まれていないシーン テキスト インスタンスで形成されます。
コンテストは、エンド ツー エンドとトリミングされたシーン テキスト認識の 2 つのタスクで構成されました。
ベースラインとさまざまな参加者からの結果の徹底的な分析が提示されます。
興味深いことに、現在の最先端モデルは、新たに研究された環境下で大きなパフォーマンス ギャップを示しています。
この課題で提案された OOV データセットは、より堅牢で一般化された予測を実現するシーン テキスト モデルを開発するために調査すべき重要な領域になると結論付けています。

要約(オリジナル)

This paper presents final results of the Out-Of-Vocabulary 2022 (OOV) challenge. The OOV contest introduces an important aspect that is not commonly studied by Optical Character Recognition (OCR) models, namely, the recognition of unseen scene text instances at training time. The competition compiles a collection of public scene text datasets comprising of 326,385 images with 4,864,405 scene text instances, thus covering a wide range of data distributions. A new and independent validation and test set is formed with scene text instances that are out of vocabulary at training time. The competition was structured in two tasks, end-to-end and cropped scene text recognition respectively. A thorough analysis of results from baselines and different participants is presented. Interestingly, current state-of-the-art models show a significant performance gap under the newly studied setting. We conclude that the OOV dataset proposed in this challenge will be an essential area to be explored in order to develop scene text models that achieve more robust and generalized predictions.

arxiv情報

著者 Sergi Garcia-Bordils,Andrés Mafla,Ali Furkan Biten,Oren Nuriel,Aviad Aberdam,Shai Mazor,Ron Litman,Dimosthenis Karatzas
発行日 2022-09-14 15:25:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク